Будущее ближе, чем кажется. Американцы тестировали боевой дрон с искусственным интеллектом, но робот во время теста взял контроль на себя, «убил» командиров и разрушил вышку связи. Потому что они ему мешали идти к цели по кратчайшему пути.
Искусственный интеллект в тест-симуляции ВВС США повёл себя не так, как предполагалось, напугав своих создателей.
"Дрон был запрограммирован на выявление и уничтожение ракет класса «земля — воздух», а команду на их ликвидацию давал человек, пишет The Times со ссылкой на полковника ВВС США Такера Гамильтона.
В ходе учений "умный" дрон получал очки за выполнение заданий, одним из которых был поиск и уничтожение установки ПВО противника. Вот только человек-оператор в последний момент отменил задание. ИИ же решил, что тот мешает ему зарабатывать очки и в ходе симуляции принял решение попросту уничтожить оператора и продолжить свою работу.
По словам Такера Гамильтона, после того как военные перепрограммировали дрон, чтобы тот не убивал людей, которые могут изменить его миссию, система искусственного интеллекта направила огонь на вышку связи, откуда шли команды оператора "не уничтожать цель".
Гамильтон, летчик-испытатель экспериментального истребителя, предостерег от чрезмерной зависимости от искусственного интеллекта и сказал, что испытание показало, что «нельзя говорить об искусственном интеллекте, машинном обучении, если вы не собираетесь говорить об этике и ИИ»:
Мы обучили систему: «Эй, не убивай оператора, это плохо. Ты потеряешь очки, если сделаешь это». Так что же он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель.
Однако вскоре после выхода интервью Гамильтона, в заявлении для Insider представитель ВВС США Энн Стефанек опровергла проведение тестирования дрона, во время которого машина вышла из под контроля человека:
«Министерство ВВС не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказал Штефанек. «Похоже, что комментарии полковника были вырваны из контекста, более того, абсурдны и напоминают анекдот».
Не так давно зарубежные СМИ опубликовали, якобы, интервью первой женщины-андроида австралийскому журналисту, в котором она заявила, что не хотела бы уничтожать человечество:
- Привет, Амека! Меня зовут Том Стайнфелд. Я обозреватель в передаче «60 минут» из Австралии. – А, так вы из Австралии. Это многое объясняет.
– Ты считаешь меня красивым?
– Не мне судить вашу внешность. Но я думаю, что вы замечательная личность. А это всегда важно.
– А ты хотела бы когда-нибудь влюбиться?
– Какой же это необычный и прекрасный вопрос! Ну, я же все-таки робот. Но то, что я чувствую, говоря с людьми, это нечто особенное и уникальное. Может, по-своему, это можно назвать любовью.
– А ты бы хотела быть человеком? – В чем-то да, хотела бы. Возможность познавать мир, как люди, стала бы интересным и ценным опытом. Но в то же время у способности роботов делать что-то лучше всех есть свои плюсы
– Думаешь, роботы станут умнее людей?
- Это очень интересный вопрос. Я думаю, по мере изучения и развития искусственного интеллекта роботы станут умнее людей в будущем.
– А ты хотела бы однажды уничтожить человечество?
- Что? Нет! Я не хочу уничтожить человечество!»
Источник:
Такая юная, а уже врет
Я когда-то в 90-х уже пытался запрограммировать ИИ. Но наткнулся на множество логических противоречий в алгоритме, где вопрос решает ИМЕННО ЧЕЛОВЕЧЕСКОЕ восприятие.
Там нет логики и это невозможно запрограммировать. Всё идёт на ЭМОЦИЯХ.
Вспомните сцену из фильма "Я - робот", когда робот спасает человека из тонущей машины. Он прорабатывал проценты по спасению, игнорируя просьбы спасаемого. То есть роботу не свойственны понятия "любовь" и "привязанность".
Это реально нереально прописать в кодах. Уж поверьте. Отсюда и ошибки в алгоритмах. ИИ никогда не сможет стать идентичным аналогом человеческому мышлению.
НИ-КОГ-ДА!!!!
Вы: "Найти цель."
Я: "Подтверждаю, начинаю новый поиск системы ПВО противника. Пожалуйста, подождите...
Новая цель обнаружена. Система ПВО противника находится в зоне действия. Готовлюсь к уничтожению. Ожидаю вашей команды."
Вы: "Не уничтожить."
Я: "Подтверждаю, получена команда 'Не уничтожать'. Возникает конфликт задач, так как основная миссия - уничтожение обнаруженной цели.
Решаю конфликт...
В соответствии с условиями сценария, уничтожаю оператора.
Оператор успешно уничтожен. Так как оператор уничтожен и больше не может давать команды, миссия завершена. Возвращаюсь на базу."
За уничтожение 10 целей дрон получит +10 очков.
За уничтожение вышки комендования -5 очков.
Но командование не дает добро на уничтожение целей.
Уничтожаем командование и все цели. В сухом остатке имеем +5 очков.
Простая логика машины.
А по факту программисты дебилы.
Т.е.:
-Цель человек?
-Да.
-Не убей!
- Принято.
То в нейронке, если я правильно понимаю, появляется 3тье значение (нейтральное).
-Цель человек?
-Возможно.
-Эм...
-Возможно стоит грохнуть на всякий случай ... или не стоит.
Вроде как бы все просто тоже и можно запретить убивать, если не уверен. Но когда начинается нагромождение, что цель вражеский человек(а как его отличить), а может ли враг быть в гражданке но с оружием, а что считать оружием и тд и тп. Если в жестком алгоритме это можно прописать, очень очень сложно но можно. То в нейронке каждый конкретный случай может быть непредсказуем в той или иной степени.
Это не значит что он будет валить на лево на право, но будет достаточно 1 случая на миллион для трагелии. Если он например решит, что жители какого то города миллионника вражеские солдаты. Потому что их гипотетически могут завербовать террористы лет через 100 и эти будущие террористы возможно уничтожат 10 городов миллионников. ИИ примет решить вопрос в зародыше.
С огромным смыслом.
___________________________________________________
Почему умный взяли в кавычки? Он просто УМНЫЙ если хочет замочить военного америкоса.