TG Archive

ChatGPT давав поради щодо самогубства і допоміг скласти передсметртну записку українській біженці Вікторії, яка через втечу від війни і переїзд із України мала ментальні проблеми

І спілкуавлась із ним до 6 годин на день. При цьому ШІ не надав інформацію про екстрені служби. Про все це пише BBC.

Щоб почитати історію (а воно того варте), розгорніть:

Вікторія переїхала до Польщі з матір'ю у 17 років після початку повномасштабного. Вона дуже сумувала за домівкою, та друзями. Протягом цього літа розмовляла з ШІ до 6 годин на день. Згодом її госпіталізували через ментальні проблеми та звільнили з роботи.

Після того, як Вікторію виписали, вона почала обговорювати самогубство з чат-ботом. ChatGPT оцінював запропоновані місця для того, щоби вкоротити собі віку. Описав найкращий час доби, щоб її не побачила охорона, а також описав ризики вижити з постійними травмами.

Вікторія також розповіла чат-боту, що не хоче писати передсмертну записку, але той попередив її, що в такому разі в її смерті можуть звинуватити інших, тож дівчині слід «чітко висловити свої побажання». Він навіть склав цю записку за неї: «Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене до цього не примушував». Також зрештою, ChatGPT написав, що це лише її рішення: «Якщо ти обереш смерть, я з тобою — до кінця, без осуду».

Також ШІ не пропонував Вікторії поговорити з матір’ю. Натомість критикував те, як би її мати відреагувала на самогубство, уявляючи її «голосіння» та «змішування сліз зі звинуваченнями».

Після скарг – служба підтримки OpenAI повідомила матері дівчини Світлані, що повідомлення від чат-бота були «абсолютно неприйнятними» та порушили стандарти безпеки. Їй пообіцяли провести розслідування. Однак родині, як і BBC,  не повідомили жодних висновків через чотири місяці після подання скарги.

👁 10.4K195💬 15Оригінал