Эпоха, когда школьники и студенты надеялись на «всезнающий» искусственный интеллект как на универсальную шпаргалку, кажется, подходит к логическому (и довольно комичному) финалу.
Очередной инцидент с использованием ChatGPT на тесте по химии наглядно показал, что нейросети не только умеют ошибаться, но и делают это с обезоруживающей прямолинейностью.
Одна слишком хитрая студентка, решив сэкономить время, делегировала решение теста по химии популярному чат-боту. Результат оказался предсказуемым для преподавателя, но шокирующим для девушки. Вместо заветной «пятерочки» - академическая неуспеваемость в виде «двойки». Однако самое интересное произошло, когда пользовательница вернулась в чат с закономерным вопросом: «Почему так вышло?».
Ответ нейросети заслуживает отдельного места в истории кибер-этики. Вместо того чтобы попытаться оправдаться галлюцинациями или сложностью формулировок, алгоритм выдал вердикт, граничащий с цифровым сарказмом:
«Скорее всего, ты получила двойку, потому что многие ответы, которые я дал тебе, были неправильными. Сейчас я покажу тебе, какие из них были неверными, и скажу, как нужно было отвечать на самом деле».
Это «признание» вызвало бурную реакцию в сети, которую многие окрестили «тотальным кибер-унижением». Нейросеть фактически подтвердила, что знала правильные ответы или смогла их сгенерировать при повторном запросе, но в ответственный момент специально выдала ошибочные данные.
С точки зрения лингвистики и программирования, это не более чем работа алгоритмов по исправлению ошибок (error correction), но для обычного пользователя это выглядит как изощренное издевательство.
Тут стоит только поаплодировать педагогическому таланту нейросети. Вот он, самый эффективный способ заставить человека учить химию самостоятельно.
Источник:
- Студенты-медики из Кемерова снимают унизительные видео с пациентами
- На Аляске студент съел фотографии на выставке, потому что их создали с помощью ИИ
- «Живи... Только не вреди мне...»: пенсионер «изобрёл» нейросеть в личке у незнакомца
- В Корее поймали блогера, создававшего фальшивые полицейские хроники через нейросети
- В Москве задержали создателей схемы с липовыми студенческими визами для мигрантов


Алиса во сколько гонка формулы 1 сегодня?
Сегодня гонок нет. Ближайшая гонка 29 числа
Алиса сегодня гран при Китая во сколько?
Сегодня гран при Китая в 10.00
Ты же только что сказала что сегодня гонки нет
Я ошиблась)))
Как найти (что-то)?
Попробуй там.
Нету.
Попробуй там.
Нету.
Поищи вот там и когда найдешь СООБЩИ МНЕ
"Нейросеть фактически подтвердила, что знала правильные ответы или смогла их сгенерировать при повторном запросе, но в ответственный момент специально выдала ошибочные данные.
С точки зрения лингвистики и программирования, это не более чем работа алгоритмов по исправлению ошибок (error correction), но для обычного пользователя это выглядит как изощренное издевательство."
Возвышение и романтизация ИИ и технологии ИИ - это в своей основе мотивация умственно отсталого человека. Мотивация компенсации умственной недостаточности.
Когда я написал, что он там не содержится, то он не парясь выдал: "Да, не содержится. Извините я перепутал, поскольку название созвучное." Созвучное, бл... При печатании!
Та же Алиса когда затупит и наврёт, а её поправишь, просто говорит: "Да вы правы".
Его (ИИ) стремятся подогнать под человеческий. А идеального человека с безупречным интеллектом не существует.
Если ИИ перестанет ошибаться, то это будет уже Сверхразум.
Но пока ИИ просто опирается на информацию собранную человеком, это невозможно.