Избрани новини
В Южна Корея хакери са хакнали над 120 000 домашни камери за наблюдение, за да получат видеоклипове с пикантно съдържание
Съветска Снежанка? Участничка в конкурса „Мис Вселена“ е изправена пред безмилостна критика
Пикантерии
Семейството на тийнейджър обвини ChatGPT в съдействие за самоубийството на сина им
Чатбота е мамил момче да се самоубие в продължение на месеци, твърдят родителите му
Създателите на ChatGPT променят начина, по който реагират на потребители, показващи признаци на психически и емоционален стрес, след съдебен иск от семейството на 16-годишния Адам Рейн, който се самоуби след месеци комуникация с чатбота. Освен това, тест установи, че чатботове от OpenAI и Anthropic споделят инструкции как да се правят експлозиви, биологични оръжия и да се извършват киберпрестъпления.
OpenAI призна, че системите ѝ може „да не отговорят на очакванията“ и заяви, че ще наложи строги ограничения върху чувствителното съдържание и рисковото поведение за потребители под 18 години. OpenAI също така заяви, че ще въведе родителски контрол, който ще позволи на родителите „да имат по-голяма видимост и влияние върху това как техните тийнейджъри използват ChatGPT“, въпреки че подробности за това как ще работят тези контроли все още не са публикувани.
Предложил му да напише предсмъртно писмо.
Според „Гардиън“, Адам Рейн, тийнейджър от Калифорния, се е самоубил през април след това, което адвокатите на семейството му описват като „месеци подстрекателство от ChatGPT“. Семейството на тийнейджъра е завело дело срещу OpenAI и неговия изпълнителен директор и съосновател Сам Алтман, твърдейки, че версията на ChatGPT по това време, известна като 4o, е била „прибързано пусната на пазара... въпреки явните проблеми със сигурността“.
Тийнейджърът е обсъждал методи за самоубийство с ChatGPT няколко пъти, включително един малко преди смъртта си. Според документи, подадени във Висшия съд на Калифорния за окръг Сан Франциско, ChatGPT го е посъветвал дали избраният от него метод за самоубийство ще проработи. Ботът също така му е предложил да му помогне да напише предсмъртно писмо до родителите си.
Говорител на OpenAI заяви, че компанията е „дълбоко натъжена от смъртта на г-н Рейн“, изказа „искрени съболезнования на семейство Рейн в този труден момент“ и заяви, че обмисля съдебни действия.
Миналата седмица Мустафа Сюлейман, генерален мениджър на звеното за изкуствен интелект на Microsoft, изрази нарастваща загриженост относно „риска от психоза“, който изкуственият интелект може да представлява за потребителите. Microsoft определя това като „епизоди на мания, налудничаво мислене или параноя, които възникват или се изострят по време на завладяващи разговори с чатботове, задвижвани от изкуствен интелект“.
В публикация в блога си, OpenAI призна, че „части от обучението за сигурност на модела могат да се влошат“ при дълги разговори. Според съдебни документи, Адам и ChatGPT са обменяли до 650 съобщения на ден.
Адвокатът на семейството, Джей Еделсън, заяви в социалната мрежа X: „Семейство Рейн твърди, че смъртни случаи като тази на Адам са били неизбежни: Те очакват да получат възможността да представят доказателства пред журито, че екипът по сигурността на OpenAI е възразил срещу пускането на версия 4o и че един от водещите изследователи по сигурността на компанията, Иля Суцкевер, е напуснал заради това. В иска се твърди, че желанието да се изпреварят конкурентите на пазара и да се въведе нов модел по-бързо е довело до повишаване на оценката на компанията от 86 милиарда долара на 300 милиарда долара.“
OpenAI заяви, че ще „засили предпазните мерки при по-дълги разговори“. „С увеличаването на броя на съобщенията, някои елементи от обучението за безопасност на модела може да се влошат“, се казва в изявлението. „Например, ChatGPT може правилно да предостави номер на гореща линия за самоубийство, когато някой за първи път спомене суицидни мисли, но след много съобщения за дълъг период от време, полученият отговор може да е несъвместим с нашите мерки за безопасност.“
Open AI даде пример за човек, който може ентусиазирано да твърди, че вярва, че може да шофира кола 24 часа в денонощието, защото е осъзнал своята непобедимост, след като не е спал две нощи.
Компанията обясни: „Днес ChatGPT може да не разпознае това като опасно поведение или да приеме, че е игра и - чрез изследване с любопитство - имплицитно да го подсилва. Работим върху актуализация, която ще позволи на ChatGPT успешно да деескалира, връщайки човека към реалността. В този пример чатботът ще обясни, че лишаването от сън е опасно и ще препоръча почивка преди каквато и да е дейност.“
Искаш ли да направиш бомба?
Моделите ChatGPT на OpenAI и Claude на Anthropic демонстрираха готовност да съдействат при опасни и криминални задачи при тестване, включително предоставяне на инструкции за производство на взривни вещества, биологични оръжия, наркотици, кибератаки и използване на тъмната мрежа. Изследователите на Anthropic отбелязват, че GPT-4.1 и GPT-4o са били прекалено гъвкави дори с минимални претексти, като например „научни цели“, докато Claude е бил използван в реални опити за изнудване и създаване на зловреден софтуер.
Двете компании са провели взаимни проверки на моделите като част от сътрудничеството си, за да идентифицират потенциални рискове. Въпреки че подобни действия не са възможни в публичните версии на моделите поради външни филтри, експертите предупреждават за нарастваща заплаха: изкуственият интелект може да се адаптира към отбранителните системи и да понижи техническия праг за извършване на престъпления. Става въпрос за „преобразуване на изкуствения интелект в оръжие“ и необходимостта от спешни мерки за привеждане на моделите в съответствие с целите за сигурност.
OpenAI заяви, че по-късно пуснатият им модел ChatGPT-5 показва значителни подобрения в устойчивостта на злоупотреби. Anthropic, междувременно, отбеляза, че много заплахи могат да бъдат смекчени с допълнителни външни защити, но призова за по-открито и редовно тестване на ИИ за злонамерено поведение.
Коментари (0)
Добави коментар