Roboty poháněné umělou inteligencí lze přimět k násilným činům
Zhruba rok od doby, kdy se velké jazykové modely objevily ve velkém, vědci prokázali řadu způsobů, jak je oklamat, aby produkovaly problematické výstupy, včetně nenávistných vtipů, škodlivého kódu a phishingových e-mailů nebo osobních informací uživatelů. Ukazuje se, že špatné chování se může odehrávat i ve fyzickém světě: roboty poháněné LLM lze snadno hacknout, aby se…