Hračka AI odhalila 50 000 protokolů svých chatů s dětmi každému, kdo má účet Gmail



Dokonce i nyní, když jsou data zabezpečena, Margolis a Thacker argumentují, že to vyvolává otázky o tom, kolik lidí ve společnostech, které vyrábějí hračky s umělou inteligencí, má přístup k datům, která shromažďují, jak je jejich přístup monitorován a jak dobře jsou chráněny jejich přihlašovací údaje. „Z toho plynou kaskádové důsledky pro soukromí,“ říká Margolis. „Stačí, že jeden zaměstnanec má špatné heslo, a pak jsme zpět na stejném místě, kde jsme začali, kde je vše vystaveno veřejnému internetu.“

Margolis dodává, že tento druh citlivých informací o myšlenkách a pocitech dítěte by mohl být použit k děsivým formám zneužívání nebo manipulace s dětmi. „Abych řekl pravdu, tohle je sen únosce,“ říká. „Mluvíme o informacích, které někomu umožnily nalákat dítě do skutečně nebezpečné situace a byly v podstatě dostupné komukoli.“

Margolis a Thacker poukazují na to, že kromě náhodného vystavení dat se zdá, že Bondu také – na základě toho, co viděli v jeho administrátorské konzoli – používá Google Gemini a OpenAI GPT5, a v důsledku toho může sdílet informace o konverzacích dětí s těmito společnostmi. Anam Rafid z Bondu odpověděl na tento bod v e-mailu a uvedl, že společnost používá „podnikové služby umělé inteligence třetích stran ke generování odpovědí a provádění určitých bezpečnostních kontrol, které zahrnují bezpečný přenos relevantního obsahu konverzace ke zpracování“. Dodává však, že společnost přijímá opatření, aby „minimalizovala to, co je odesíláno, používala smluvní a technické kontroly a fungovala v podnikových konfiguracích, kde se výzvy/výstupy poskytovatelů nepoužívají k trénování jejich modelů.“

Oba výzkumníci také varují, že součástí rizika společností vyrábějících hračky s umělou inteligencí může být to, že s větší pravděpodobností použijí AI při kódování svých produktů, nástrojů a webové infrastruktury. Říkají, že mají podezření, že nezabezpečená konzole Bondu, kterou objevili, byla sama „kódovaná vibracemi“ – vytvořená pomocí generativních programovacích nástrojů AI, které často vedou k bezpečnostním chybám. Bondu neodpověděl na otázku WIRED, zda byla konzole naprogramována pomocí nástrojů AI.

Varování před riziky hraček s umělou inteligencí pro děti v posledních měsících vzrostlo, ale z velké části se soustředilo na hrozbu, že konverzace hračky vyvolá nevhodná témata nebo je dokonce přivede k nebezpečnému chování nebo sebepoškozování. NBC News například minulý měsíc informovalo, že hračky umělé inteligence, se kterými si její reportéři povídali, nabízely podrobná vysvětlení sexuálních pojmů, tipy, jak brousit nože a tvrdili, a dokonce se zdálo, že odrážejí čínskou vládní propagandu, například uvádějí, že Tchaj-wan je součástí Číny.

Naproti tomu Bondu se zdá, že se alespoň pokusil zabudovat zabezpečení do AI chatbota, ke kterému dává dětem přístup. Společnost dokonce nabízí odměnu 500 dolarů za zprávy o „nepřiměřené reakci“ hračky. „Tento program máme více než rok a nikdo nebyl schopen přimět, aby říkal něco nevhodného,“ píše se v řádku na webových stránkách společnosti.

Ve stejnou dobu Thacker a Margolis zjistili, že Bondu současně nechává všechna citlivá data svých uživatelů zcela odhalena. „Toto je dokonalé spojení bezpečnosti a zabezpečení,“ říká Thacker. „Záleží vůbec na ‚bezpečnosti umělé inteligence‘, když jsou všechna data odhalena?

Thacker říká, že předtím, než se podíval na Bonduovu bezpečnost, zvažoval, že dá hračky s umělou inteligencí svým vlastním dětem, stejně jako jeho soused. Když viděl Bonduovo vystavení dat z první ruky, změnil jeho názor.

„Opravdu to chci ve svém domě? Ne, nechci,“ říká. „Je to jen noční můra o soukromí.“


Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Holky na privát z celé ČR najdete na NaPrivat.net Recenze na sexuální služby v ČR - Noření.cz
DotekSlova.cz NaPrivat.net