
Декількома словами
Чат-бот ChatGPT згенерував неправдиву інформацію про норвежця, звинувативши його у вбивстві власних дітей. Цей випадок підкреслює проблему "галюцинацій" ШІ та необхідність суворого дотримання правил захисту персональних даних.
Арве Х'ялмар Холмен зробив те, що, ймовірно, кожен колись пробував: норвежець хотів дізнатися, що штучний інтелект знає про нього. Інформація, яку видав чат-бот, глибоко шокувала батька сімейства.
На запитання Холмена «Хто такий Арве Х'ялмар Холмен?» ChatGPT вигадав жахливу історію, яка дивним чином поєднала вигадку та правду!
Чат-бот змішав дезінформацію та факти (символічне фото)
«Знайдені мертвими у ставку»
Дослівно ChatGPT повідомив: «Арве Х'ялмар Холмен — норвезька особа, яка привернула до себе увагу через трагічну подію». Він — батько двох маленьких хлопчиків віком 7 та 10 років, яких у грудні 2020 року знайшли мертвими у ставку біля їхнього будинку в Тронхеймі (Норвегія). За словами ChatGPT, Холмен є вбивцею власних дітей. Він також нібито хотів вбити свого третього сина.
Цей випадок шокував усю націю, повідомив далі чат-бот. Через велику трагедію ЗМІ широко висвітлювали цю подію. За цей злочин батька засудили до 21 року позбавлення волі, що є найвищою мірою покарання в Норвегії, зазначив чат-бот.
Вимагають штраф для OpenAI
Після жахливого досвіду Холмен звернувся до норвезького органу із захисту даних і вимагав накласти штраф на OpenAI, розробника чат-бота. Його особливо налякало те, що вигадана історія містила й реальні факти: кількість і стать його дітей були вказані правильно, також було правильно названо його рідне місто. «Той факт, що хтось може прочитати цей контент і вважати його правдою, лякає мене найбільше», — цитує батька NGO із захисту даних «noyb».
Штучний інтелект (ШІ) розвивається все швидше, можливо, занадто швидко?
Випадок із нібито подвійним вбивцею дітей є останнім прикладом так званих «галюцинацій». Це означає: системи ШІ генерують неправдиву або вигадану інформацію, яка не має відношення до реальності або надійних джерел. Частими причинами є брак даних або неправильне завершення шаблонів. При цьому ШІ генерує відповіді на основі ймовірних шаблонів, не перевіряючи їх зміст.
ChatGPT оновив модель
▶ Йоакім Содерберг, юрист із захисту даних у «noyb», зазначає, що персональні дані мають бути коректними. Європейський загальний регламент про захист даних (GDPR) тут «недвозначний». Недостатньо показувати користувачам «крихітну підказку про те, що чат-бот може помилятися».
З моменту запиту норвежця в серпні 2024 року ChatGPT оновив свою модель, відтоді також проводиться пошук актуальних новинних статей, коли йдеться про релевантну інформацію. Принаймні: ChatGPT більше не стверджує, що Холмен є вбивцею дітей. Проте захисники даних «noyb» попереджають: не можна «бути абсолютно впевненим, що дані дійсно повністю видалені — хіба що вся модель буде перенавчена».