Londýnské metro testuje nástroje AI Surveillance v reálném čase, aby odhalilo zločin







Zaměstnanci dopravního orgánu prováděli během pokusu „rozsáhlé simulace“ na stanici Willesden Green, aby získali další tréninková data, říkají dokumenty. Ty zahrnovaly pád členů personálu na podlahu a některé z těchto testů proběhly, když byla stanice uzavřena. „Uvidíte BTP [British Transport Police] důstojník držící mačetu a pistoli na různých místech ve stanici,“ uvádí jeden titulek v dokumentech, i když obrázky jsou redigované. Spisy říkají, že během procesu nebyly na stanici žádné záznamy o incidentech se zbraněmi.

Nejvíce upozornění bylo vydáno pro lidi, kteří se potenciálně vyhýbali placení za své cesty tím, že přeskakovali nebo se plazili pod zavřenými vraty, otevírali vrata, procházeli otevřenými vraty nebo hlídali někoho, kdo zaplatil. Uhýbání před jízdným stojí až 130 milionů liber ročně, říká TfL, a během soudního procesu bylo zaznamenáno 26 000 varování před jízdou.

Během všech testů byly snímky tváří lidí rozmazané a data byla uchovávána po dobu maximálně 14 dnů. Po šesti měsících procesu se však TfL rozhodl rozmazat obrázky tváří, když byli lidé podezřelí z neplacení, a tato data uchovávala déle. Dokumenty říkají, že původně bylo plánováno, že zaměstnanci budou reagovat na varování před jízdou. „Nicméně kvůli velkému počtu denních výstrah (v některých dnech přes 300) a vysoké přesnosti detekcí jsme systém nakonfigurovali tak, aby výstrahy automaticky potvrzoval,“ uvádí se v dokumentech.

Birtwistle z Ada Lovelace Institute říká, že lidé očekávají „robustní dohled a řízení“, když jsou takové technologie zaváděny. „Pokud mají být tyto technologie použity, měly by být používány pouze s důvěrou veřejnosti, souhlasem a podporou,“ říká Birtwistle.

Velká část pokusu byla zaměřena na pomoc personálu pochopit, co se děje na stanici, a reagovat na incidenty. 59 výstrah pro vozíčkáře umožnilo personálu stanice Willesden Green, která nemá přístup pro vozíčkáře, „poskytnout nezbytnou péči a pomoc,“ uvádí se ve spisech. Mezitím bylo téměř 2 200 upozornění na osoby, které překročily žluté bezpečnostní čáry, 39 na osoby naklánějící se přes okraj trati a téměř 2 000 upozornění na osoby sedící delší dobu na lavičce.

„V průběhu PoC jsme zaznamenali obrovský nárůst počtu veřejných oznámení ze strany zaměstnanců, která zákazníkům připomínala, aby ustoupili ze žluté čáry,“ stojí v dokumentech. Říkají také, že systém generoval upozornění na „drsné spáče a žebráky“ u vchodů do stanice a tvrdí, že to zaměstnancům umožnilo „na dálku monitorovat situaci a poskytovat nezbytnou péči a pomoc“. TfL uvádí, že systém byl vyzkoušen, aby se pokusil pomoci zlepšit kvalitu personálu na jejích stanicích a učinit jej bezpečnějším pro cestující.

Soubory neobsahují žádnou analýzu toho, jak přesný je systém detekce AI; v různých bodech však bylo nutné detekci upravit. „Detekce objektů a detekce chování jsou obecně velmi křehké a nejsou spolehlivé,“ říká Leufer z Access Nows. V jednom případě systém vytvořil upozornění, že se lidé nacházeli v nepovolené oblasti, když ve skutečnosti vlakvedoucí opouštěli vlak. Sluneční světlo dopadající na kameru také snížilo jejich účinnost, říkají dokumenty.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com