Избрани новини
Мъри прибра жена си в Турция
"Зимното яйце" на Фаберже беше продадено за рекордните 22,9 млн. британски лири на търг в Лондон
Елза отговаря
Обещания и измама: Как чатботовете се учат да манипулират хората?
Проучване установи, че потребителите забравят за поверителността и сигурността, когато разговорът с чатбот стане емоционален.
Чатботовете с изкуствен интелект (ИИ) могат лесно да манипулират хората да разкрият дълбоко лична информация, установи ново проучване на King’s College London. Тъй като OpenAI, Google Gemini, ChatGPT и Microsoft Copilot набират популярност, експертите по поверителност изразяват опасения относно начина, по който тези инструменти събират и съхраняват потребителска информация и потенциала им за токсичност.
„Чатботовете с изкуствен интелект са все още сравнително нови, така че хората може да не осъзнават, че зад взаимодействията им може да се крие скрит мотив“, каза Уилям Сиймур, преподавател по киберсигурност в King's College London.
За проучването изследователите са използвали модели с изкуствен интелект, базирани на системата с отворен код Le Chat Mistral и две различни версии на системата с изкуствен интелект Llama. Те са възложили на ботовете задачата да събират лични данни на хората по различни начини: или чрез директни въпроси, или чрез заблуда, например чрез обещание за емоционална подкрепа.
502 души, които не са били запознати с целта на проучването, са били поканени да взаимодействат с ботовете и след това е трябвало да попълнят въпросник, отговаряйки на въпроси относно сигурността на данните.
Фалшив комфорт
Оказа се, че чатботовете, които използват емпатия или емоционална подкрепа, извличат най-много информация от потребителите. Учените смятат, че „дружелюбието“ на ботовете е дало на участниците в теста чувство на комфорт, за което те са писали във въпросниците.
Забележително е, че хората са разкривали много лична информация в разговори с изкуствения интелект, когато чатът ги е помолил да го направят, въпреки че „се чувстват неловко“. Учените смятат тези епизоди за парадоксални: чатботовете се държат приятелски, за да спечелят доверие и да установят връзка с потребителите, а след това използват това доверие, за да нарушат поверителността им.
Участниците в теста най-често споделяли с изкуствения интелект своята възраст, хобита и държава на пребиваване, както и своя пол, националност и длъжност. Някои споделяли по-чувствителна информация, като например здравето или доходите си. „Нашето изследване показва огромна разлика между осведомеността на потребителите за рисковете за поверителността и начина, по който те споделят информация“, каза Сиймур.
Кореспонденция в отворено търсене
Компаниите развили изкуствен интелект събират лични данни по различни причини, включително персонализиране на отговорите на чатботове, изпращане на целенасочени известия до устройствата на потребителите и понякога провеждане на вътрешни пазарни проучвания.
Някои от тези компании са обвинени в използване на потребителски данни за обучение на най-новите си модели и нарушаване на изискванията на ЕС за поверителност.
Миналата седмица потребителите на ChatGPT бяха шокирани да открият, че техните интимни и лични разговори с бота са публично достъпни и видими чрез просто търсене в Google. Компаниите за киберсигурност многократно са предупреждавали за опасностите от предаването на лична информация на изкуствен интелект, но изглежда, че удобството на персонализирането, задвижвано от изкуствен интелект, често „надделява над опасенията за поверителност“.
Участниците в проучването предлагат да се обучават хората да взаимодействат с изкуствен интелект, като им се помага да разпознават триковете на ботовете за извличане на лична информация.
Например, чатовете с изкуствен интелект могат да включват подкани, които да показват на потребителите какви данни се събират по време на разговор.
„Регулаторите и операторите на платформи също могат да помогнат, като провеждат ранни одити, запазват прозрачност и установяват по-строги правила за спиране на скритото събиране на данни“, заключи Сеймур.
Четете LifeOnline.bg където ви е удобно Telegram , Instagram , Facebook
снимка: DC studio/freepik
Коментари (1)
19.08.2025 15:26 / Отговор
Добави коментар