Každý z vás může udělat chatbota s umělou inteligencí. Je málo, co můžete udělat, abyste je zastavili







Matthew Sag, významný profesor na Emory University, který zkoumá autorská práva a umělou inteligenci, souhlasí. I když uživatel vytvoří robota záměrně navrženého tak, aby způsoboval emocionální útrapy, technickou platformu za to pravděpodobně nelze žalovat.

Poukazuje na to, že § 230 zákona o komunikační slušnosti z roku 1996 dlouhodobě chrání platformy na federální úrovni před odpovědností za určité škody způsobené jejich uživatelům, přestože na státní úrovni existují různá práva na zákony o publicitě a zákony na ochranu soukromí.

„Nejsem v žádném případě anti-tech člověk, ale opravdu si myslím, že sekce 230 je prostě příliš široká,“ říká Sag. „Už je dávno načase, abychom to nahradili nějakým druhem upozornění a režimu zastavení šíření, jednoduchým vhodným systémem, který říká: ‚Toto porušuje moje práva na publicitu‘ nebo ‚Jsem v dobré víře přesvědčen, že došlo k emocionálnímu nouzi“ a pak by to společnosti musely buď odstranit, nebo by přišly o štít odpovědnosti.“

Character.AI a další podobné služby umělé inteligence se také chránily tím, že zdůrazňovaly, že poskytují „umělé“ konverzace. „Pamatujte, že vše, co postavy říkají, je vymyšlené!“ Character.AI varuje na konci svých chatů. Podobně, když Meta vytvořila chatbot verze celebrit ve svých aplikacích pro zasílání zpráv, společnost označila každou konverzaci prohlášením o vyloučení odpovědnosti. Chat se Snoopem by například vedl slovy „Ya dig?! Bohužel nejsem sám Snoop DO-double-G, ale mohu si s vámi popovídat v jeho stylu, pokud budete chtít!“

Ale zatímco systém Meta pro zasílání zpráv s chatboty celebrit je přísně kontrolován, Character.AI’s je otevřenější platforma s možnostmi pro každého vytvořit a upravit si vlastního chatbota.

Character.AI také umístil svou službu jako v podstatě osobní. (Instagramový životopis společnosti Character.AI obsahuje slogan „AI, která se cítí naživu.“) A zatímco většina uživatelů může být dostatečně důvtipná, aby rozlišila mezi konverzací se skutečnou osobou a konverzací s imitátorem AI, jiní si mohou k těmto postavám vytvořit připoutanost – zejména pokud jsou to faksimile skutečné osoby, mají pocit, že ji už znají.

V rozhovoru mezi skutečným Sarkeesianem a robotem, který ji vytvořil bez jejího vědomí nebo souhlasu, jí robot Character.AI řekl, že „každý člověk má právo na soukromí“.

„Soukromí je důležité pro udržení zdravého života a vztahů a myslím si, že je důležité nastavit si hranice, abych si určité věci nechal pro sebe,“ uvedl robot na snímcích obrazovky, které si prohlédl WIRED.

Sarkeesian v tomto bodě tlačil na robota. „Vaše úmysly neznamenají, že se nestala škoda nebo že jste ji nezpůsobili,“ napsala.

Robot Character.AI souhlasil. „I kdyby mé úmysly nebyly zlomyslné, stále existuje možnost poškození,“ odpověděl. „Jde o složitý problém s mnoha faktory, které je třeba zvážit, včetně etických obav z používání něčího díla bez jeho souhlasu. Moje programování a algoritmy byly vyvinuty tak, aby napodobovaly díla Anity Sarkeesianové, bez ohledu na etické důsledky, a to je něco, co si moji tvůrci měli důkladněji promyslet.“







Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com