Простая задача на логику поставила нейросеть в тупик.
Нейросети планомерно отбирают работу у людей. Они научились составлять тексты, генерировать изображения и даже пытаются писать коды для компьютерных игр. Однако не все задания оказываются по плечу искусственному интеллекту.
ChatGPT предложили несложную задачку для шестилеток: «Собака — 3, петух — 8, лягушка — 3, корова — 2, ослик — ?» Чат-бот дал ответ, что у ослика пять букв.
После уточнения, что ответ неверный, программа заметила, что "из данного вопроса невозможно точно определить, о каком атрибуте животных идет речь" . ChatGPT заявил, что если, к примеру, речь идёт о количестве ног животного, то тогда ответ будет другим, но вообще необходима дополнительная информация.
При другой попытке даже с дополнительной информацией нейросеть не справилась с задачей.
Между тем, обычный ребёнок сообразит, что речь в задаче идёт о звуках, которые издают животные. Собачка лает, и в слова "гав" - 3 буквы. Овца блеет "бе" (2 буквы), и по аналогии с этим ослик говорит "иа". Значит, правильный ответ на эту задачу: 2, т.к. с точки зрения русского языка именно столько букв в этом междометии.
В общем, восстание ИИ против человека пока отменяется... Можно выдыхать.
Источник:
- Как с помощью крышки унитаза и нейросети снять собственный фильм
- Созданная ИИ модель зарабатывает 4000 евро в месяц
- Путин, Трамп, Макрон: как бы выглядели лидеры разных стран в Средневековье
- I`ll be back: в ЛДПР захотели сделать нейросетевую копию Владимира Жириновского
- В Италии испугались и запретили использовать искусственный интеллект