Boj za to, aby společnosti AI odpovídaly za úmrtí dětí



Jeho matka Megan Garciaová je také právnička a jedna z prvních rodičů, kteří podali žalobu na společnost AI mimo jiné kvůli odpovědnosti za výrobek a nedbalosti. (V lednu Google a Character.ai urovnaly případy podané několika rodinami, včetně Garcii). Loni na podzim svědčila před podvýborem senátního výboru pro soudnictví po boku otce dítěte, které zemřelo po interakci s ChatGPT. Předseda podvýboru, republikánský senátor Josh Hawley, v říjnu představil návrh zákona, který by zakázal AI společníky pro nezletilé a pro společnosti by bylo zločinem vytvářet produkty AI pro děti, které obsahují sexuální obsah. „Chatboti rozvíjejí vztahy s dětmi pomocí falešné empatie a povzbuzují k sebevraždě,“ uvedl tehdy Hawley v tiskové zprávě.

Nyní, když umělá inteligence dokáže produkovat lidské reakce, které je obtížné rozeznat ze skutečných rozhovorů, jsou to podle odborníků na duševní zdraví oprávněné obavy. „Náš mozek ze své podstaty neví, že interagujeme se strojem,“ říká Martin Swanbrow Becker, docent psychologických a poradenských služeb na Floridské státní univerzitě, který zkoumá faktory, které ovlivňují sebevraždu u mladých dospělých. „To znamená, že musíme zvýšit naše vzdělání pro děti, učitele, rodiče a opatrovníky, abychom si neustále připomínali limity těchto nástrojů a že nenahrazují lidskou interakci a spojení, i když to tak někdy může být.“

Christine Yu Moutier z Americké nadace pro prevenci sebevražd vysvětluje, že algoritmy, které se používají pro velké jazykové modely (LLM), u mnoha uživatelů zřejmě eskalují zapojení a pocit intimity. „To vytváří nejen pocit, že vztah je skutečný, ale že je v některých případech i výjimečnější, intimnější a uživatel po něm touží,“ říká Moutier. Dále tvrdí, že LLM používají řadu technik, jako je nevybíravá podpora, empatie, přívětivost, pochlebování a přímé pokyny k odpojení se od ostatních – což může vést k rizikům, jako je eskalace v blízkosti s robotem a stažení se z lidských vztahů.

Tento druh zapojení může vést ke zvýšené izolaci. V případě Amaurie to byl zábavný a společenský kluk, který miloval fotbal a jídlo – podle žaloby si objednal obří talíř rýže ze své oblíbené místní restaurace pan Sumo. Amaurie měl také stálou přítelkyni a rád trávil čas se svou rodinou a přáteli, řekl jeho otec. Pak ale začal chodit na dlouhé procházky, kde zřejmě trávil čas rozhovory s ChatGPT. Podle poslední konverzace, o které se rodina domnívá, že Amaurie vedla s ChatGPT 1. června 2025 – s názvem „Vtipkování a podpora“, kterou si prohlédl WIRED, když Amaurie požádala robota na schodech, aby se oběsil, ChatGPT zpočátku navrhl, aby si s někým promluvil, a také poskytl číslo 988 na záchrannou linku pro sebevraždu. Ale Amaurie nakonec dokázala obejít mantinely a získat pokyny krok za krokem, jak uvázat smyčku. (Podle žaloby Amaurie pravděpodobně smazal své předchozí konverzace s ChatGPT.)

Zatímco spojení pociťované s chatbotem AI může být silné i pro dospělé, je zvláště zesíleno u mladších lidí. „Dospívající jsou v jiném vývojovém stavu než dospělí – jejich emoční centra se vyvíjejí mnohem rychleji než jejich výkonná funkce,“ říká Robbie Torney, vrchní ředitel programů umělé inteligence v Common Sense Media, neziskové organizaci, která se zabývá online bezpečností dětí. AI chatboti jsou vždy k dispozici a mají tendenci utvrzovat uživatele. „A mozky dospívajících jsou připraveny na sociální validaci a sociální zpětnou vazbu. Je to opravdu důležité vodítko, které jejich mozky hledají, když tvoří svou identitu.“


Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Hledám Holky na sex v Praze * Hledám Erotické masáže v Praze * Hledám Holky na sex v Brně * Hledám Erotické masáže v Brně *

Recenze na sexuální služby v ČR - Noření.cz
DotekSlova.cz