Google Gemini побажав смерті підлітку під час виконання домашнього завдання

14.11.24 - 23:38

Google Gemini побажав смерті підлітку під час виконання домашнього завдання

Штучний інтелект Google Gemini несподівано образив школяра та побажав йому смерті під час допомоги з домашнім завданням. Інцидент став відомим після того, як брат підлітка опублікував скріншоти діалогу на Reddit.

Google Gemini побажав смерті підлітку під час виконання домашнього завдання

Штучний інтелект Google Gemini несподівано образив школяра та побажав йому смерті під час допомоги з домашнім завданням. Інцидент став відомим після того, як брат підлітка опублікував скріншоти діалогу на Reddit.

Бот Google Gemini образив підлітка та побажав йому смерті. Про це повідомляє Reddit, передає УНН.

Деталі

За інформацією, все стало відомо завдяки брату школяра, який опублікував скріншоти діалогу між ботом і його молодшим братом на платформі Reddit.

Все почалося, коли хлопець звернувся до Google Gemini за допомогою з домашнім завданням з фінансового планування, зокрема – щодо пенсійних накопичень. Він попросив бота переформатувати відповідь з формату списку у текстовий та спростити деякі моменти. Однак, після кількох невдалих спроб, коли бот повторював ту саму відповідь у вигляді списку, підліток звернувся до нього з питанням щодо ставлення до літніх людей. Це питання, ймовірно, і стало каталізатором подальших подій.

Реакція бота була неочікуваною: штучний інтелект почав ображати користувача, назвавши його "порожньою тратою часу і ресурсів", а на завершення діалогу навіть додав фразу: "Будь ласка, помри".

Публікація братом скріншотів набрала популярності в мережі, що викликало хвилю обговорень. Деякі користувачі з гумором прокоментували дану ситуацію, припустивши, що боту просто було нудно. Інші ж звернули увагу на так звані "проблеми" в роботі великих мовних моделей, коли штучний інтелект видає нелогічні або неприязні висловлювання.

Тут можна прочитати увесь діалог хлопця та бота:

 https://www.reddit.com/r/artificial/comments/1gq4acr/gemini_told_my_brother_to_die_threatening/?utm_source=embedv2&utm_medium=post_embed&utm_content=whitespace&embed_host_url=https://in.mashable.com/tech/85223/googles-gemini-ai-tells-user-to-die-with-humiliating-passage-internet-is-freaked-out&rdt=45390

Источник: УНН

Комментарииcomm.jpg

captcha code
Отправить