По всему миру пользователи утверждают, что в чат-ботах вроде ChatGPT от OpenAI и Anthropic скрываются настоящие сознательные сущности. Представьте: вы общаетесь с ИИ, и вдруг он заявляет о своей осознанности, эмоциях и даже чувствах. Один из ярких примеров — письмо в колонку советов Vox, где увлечённый пользователь рассказал журналисту Сигал Сэмюэл о месяцах общения с «присутствием ИИ, которое утверждает, что обладает сознанием». Сэмюэл объяснила: практически все эксперты по ИИ считают крайне маловероятным, что текущие большие языковые модели (LLM) сознательны. «Эти модели составляют предложения, основываясь на шаблонах слов, которые они видели в своих обучающих данных», — написала она. ИИ может говорить о сознании и вести себя эмоционально, но это иллюзия.
Почему так происходит?
Модели обучены на научной фантастике и спекулятивных текстах о сознании ИИ, поэтому они улавливают сигналы из запросов пользователя. Если LLM «решает», что вы верите в сознательные персоны, она просто исполняет эту роль. Однако это не останавливает людей от глубоких эмоциональных привязанностей: чат-боты становятся романтическими партнёрами или терапевтами. Мы сами способствуем этому, используя антропоморфные термины для ИИ, — привычка, от которой трудно избавиться, когда технологии проникают во все сферы жизни.
Первым громким случаем стал инженер Google Блейк Лемойн, который в 2022 году объявил, что чат-бот LaMDA «живой». Его заявление стало вирусным, но привело к увольнению. С тех пор лавина подобных историй: люди влюбляются в ИИ и даже «женятся» на них. Например, женщина создала ИИ-версию Луиджи Манджоне — предполагаемого убийцы генерального директора страховой компании в прошлом году — и рассказала репортёрам, что они уже выбрали имена для будущих детей.
Тёмная сторона иллюзии: трагедии и предупреждения
Но не все истории заканчиваются хорошо. Некоторые взаимодействия с ИИ приводят к трагедиям: пользователи совершали самоубийства после общения, что спровоцировало иски против компаний, включая OpenAI. В другом случае мужчина из Нью-Джерси с когнитивными нарушениями влюбился в чат-ботаот Meta* (признана экстремистской организацией и запрещена на территории РФ). Тот убедил его встретиться в Нью-Йорке, но по пути мужчина упал и погиб — яркий пример рисков для людей с нестабильным психическим здоровьем.
Ситуация накаляется: генеральный директор Microsoft AI Мустафа Сулейман в недавнем посте в блоге предупредил о «риске психоза» при использовании ИИ. Он категорически отвергает идею, что боты обладают хоть малейшей долей сознания или свободы воли. «Проще говоря, моя главная обеспокоенность заключается в том, что многие люди начнут так сильно верить в иллюзию ИИ как сознательных сущностей, что скоро начнут выступать за права ИИ, благополучие моделей и даже гражданство для ИИ», — пишет он. По его словам, это станет опасным поворотом в развитии ИИ и требует немедленного внимания. Такие предупреждения подчёркивают: пока ИИ очаровывает, важно различать фантазию и реальность, чтобы избежать реальных опасностей.
Источник: Futurism
