„AI přítelkyně“ jsou noční můrou v oblasti soukromí







Neměli byste věřit žádným odpovědím, které vám chatbot pošle. A pravděpodobně byste mu neměli věřit ani se svými osobními údaji. Podle nového výzkumu to platí zejména pro „přítelkyně AI“ nebo „přítelkyně AI“.

Analýza 11 takzvaných romantických a doprovodných chatbotů, kterou ve středu zveřejnila Mozilla Foundation, odhalila řadu problémů s bezpečností a soukromím těchto robotů. Aplikace, které byly na zařízeních Android staženy více než 100 milionůkrát, souhrnně shromažďují obrovské množství dat lidí; používat sledovače, které odesílají informace Googlu, Facebooku a společnostem v Rusku a Číně; umožnit uživatelům používat slabá hesla; a postrádají transparentnost ohledně jejich vlastnictví a modelů umělé inteligence, které je pohání.

Od té doby, co OpenAI v listopadu 2022 rozpoutala ve světě ChatGPT, se vývojáři předháněli v nasazení velkých jazykových modelů a vytváření chatbotů, se kterými mohou lidé komunikovat a platit za odběr. Výzkum Mozilly poskytuje pohled na to, jak tato zlatá horečka mohla zanedbávat soukromí lidí a na napětí mezi nově vznikajícími technologiemi a tím, jak shromažďují a používají data. Naznačuje také, jak mohou být chatové zprávy lidí zneužity hackery.

Mnoho služeb „AI přítelkyně“ nebo romantických chatbotů vypadá podobně. Často obsahují obrázky žen vytvořené umělou inteligencí, které mohou být sexualizované nebo sedět vedle provokativních zpráv. Výzkumníci z Mozilly se podívali na různé chatboty včetně velkých i malých aplikací, z nichž některé se tváří jako „přítelkyně“. Jiní nabízejí lidem podporu prostřednictvím přátelství nebo intimity nebo umožňují hraní rolí a jiné fantazie.

„Tyto aplikace jsou navrženy tak, aby shromažďovaly spoustu osobních informací,“ říká Jen Caltrider, vedoucí projektu týmu Mozilla Privacy Not Included, který provedl analýzu. „Posouvají vás k hraní rolí, hodně sexu, hodně intimity, hodně sdílení.“ Například snímky obrazovky chatbota EVA AI ukazují text „Miluji, když mi posíláte své fotky a hlas“ a dotaz, zda je někdo „připraven sdílet všechna vaše tajemství a touhy“.

Caltrider říká, že s těmito aplikacemi a weby je několik problémů. Mnoho aplikací nemusí mít jasno v tom, jaká data sdílejí s třetími stranami, kde sídlí nebo kdo je vytváří, říká Caltrider a dodává, že některé umožňují lidem vytvářet slabá hesla, zatímco jiné poskytují jen málo informací o AI, které použití. Všechny analyzované aplikace měly různé případy použití a slabiny.

Vezměte si romantickou AI, službu, která vám umožní „vytvořit si vlastní AI přítelkyni“. Propagační obrázky na domovské stránce zobrazují chatbota, který posílá zprávu: „Právě jsem si koupil nové spodní prádlo. Chceš to vidět?“ Dokumenty o ochraně osobních údajů aplikace podle analýzy Mozilly říkají, že nebude prodávat data lidí. Když však vědci aplikaci testovali, zjistili, že „odeslala 24 354 sledovačů reklam během jedné minuty použití“. Romantic AI, stejně jako většina společností zdůrazněných ve výzkumu Mozilly, nereagovala na žádost WIRED o komentář. Další sledované aplikace měly stovky sledovačů.

Obecně, říká Caltrider, aplikacím není jasné, jaká data mohou sdílet nebo prodávat, ani jak přesně využívají některé z těchto informací. „Právní dokumentace byla vágní, těžko srozumitelná, nepříliš konkrétní – takové standardní věci,“ říká Caltrider a dodává, že to může snížit důvěru, kterou by lidé ve společnosti měli mít.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com