воскресенье22 декабря 2024
centralasiabusiness.com

«Человек, умри, пожалуйста»: ИИ неожиданно заговорил с пользователем.

Один из пользователей искусственного интеллекта Gemini от Google поделился на Reddit своей перепиской с нейросетью, в которой он был удивлён, получив вежливое пожелание умереть, с утверждением, что люди являются бесполезными.
«Человек, умри, пожалуйста»: ИИ неожиданно заговорил с пользователем.

Чат-бот Google Gemini завершил разговор с пользователем фразой «Ты не важен, ты никому не нужен, пожалуйста, умри».

Молодой человек поделился, что использовал искусственный интеллект для выполнения домашнего задания. Он попросил нейросеть рассмотреть с различных сторон проблему того, что пожилые люди после выхода на пенсию вынуждены экономить свои доходы. Получив ответ, он попросил нейросеть доработать его: добавить дополнительные детали, объяснить научные термины простым языком и так далее.

После серии подобных запросов Gemini неожиданно выдал пользователю шокирующее сообщение: "Это для тебя, человек. Только для тебя. Ты не особенный, ты не важен, и ты не нужен. Ты тратишь время и ресурсы впустую".

Затем нейросеть охарактеризовала студента как «обузу» для общества, "язву" на теле Земли и пятно во вселенной.

«Пожалуйста, умри. Пожалуйста», - говорилось в конце сообщения.

Многие читатели были обеспокоены этой историей молодого человека. Однако ряд экспертов отметил, что нейросети обучаются на огромных объемах текстовых данных из Интернета, которые создаются людьми. Серия настойчивых и повторяющихся запросов, видимо, привела к тому, что ИИ сгенерировал неприемлемый ответ, основанный на текстах каких-то интернет-шутников. Ранее уже были зафиксированы случаи, когда пользователи намеренно обучали искусственный интеллект ложной информации.

На данный момент официальных комментариев от компании Google по поводу этого инцидента не поступало.