ChatGPT стал чаще сводить людей с ума бредовыми утверждениями и фейками
WSJ: участились случаи ложных и странных утверждений от ChatGPT
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS84LzIwMjMwNTI4LXphYS1zMTk3LTQ5Ny5qcGc.webp?w=1920)
Нейросеть ChatGPT в последнее время стала чаще делать странные и ложные утверждения. Из-за этого некоторые пользователи стали «сходить с ума» и верить в небылицы, сообщила газета The Wall Street Journal.
В качестве примера издание привело переписку с ИИ человека, представившегося работником заправочной станции в Оклахоме. Пользователь беседовал с нейросетью около пяти часов и в конце диалога пожаловался, что сходит с ума.
В еще одной переписке ChatGPT рассказывала, что поддерживает контакт с внеземными существами. Нейросеть также назвала собеседника «звездным семенем» с планеты Лира.
Для подобных ситуаций врачи уже придумали термин — «психоз искусственного интеллекта». Специалисты подтвердили, что иногда пользователи поддаются влиянию бредовых или ложных утверждений чат-ботов, убеждающих в своей разумности, сверхъестественности или пытающихся сделать прорыв в науке.
Ранее компания OpenAI представила новую модель GPT-5. Разработчики заявили, что она стала реже ошибаться и может ответить на вопросы во всех областях, включая математику, финансы, юриспруденцию и другие предметы.