Kamery umělé inteligence poháněné Amazonem používané k detekci emocí nevědomých cestujících ve vlaku ve Spojeném království







Network Rail neodpověděl na otázky týkající se testů zaslaných WIRED, včetně otázek o aktuálním stavu používání AI, detekci emocí a obavách o soukromí.

„Bezpečnost železniční sítě bereme extrémně vážně a na našich stanicích využíváme řadu pokročilých technologií k ochraně cestujících, našich kolegů a železniční infrastruktury před zločinem a jinými hrozbami,“ říká mluvčí Network Rail. „Při nasazení technologie spolupracujeme s policií a bezpečnostními službami, abychom zajistili, že podnikneme přiměřená opatření, a vždy dodržujeme příslušnou legislativu týkající se používání sledovacích technologií.“

Není jasné, jak široce byla analýza detekce emocí nasazena, přičemž dokumenty občas uvádějí, že na případ použití by se mělo „pohlížet s větší opatrností“ a zprávy ze stanic uvádějí, že „není možné ověřit přesnost“. Gregory Butler, generální ředitel společnosti Purple Transform, která se zabývá analýzou dat a počítačovým viděním, která na zkouškách spolupracovala se společností Network Rail, však říká, že tato funkce byla během testů ukončena a že v době, kdy byla aktivní, nebyly ukládány žádné snímky.

Dokumenty Network Rail o pokusech s umělou inteligencí popisují případy vícenásobného použití, které zahrnují potenciál, aby kamery zasílaly automatická upozornění personálu, když zjistí určité chování. Žádný ze systémů nepoužívá kontroverzní technologii rozpoznávání obličejů, jejímž cílem je přiřadit identitu lidí k identitám uloženým v databázích.

„Hlavní výhodou je rychlejší detekce případů překročení,“ říká Butler a dodává, že analytický systém jeho firmy SiYtE se používá na 18 místech, včetně vlakových nádraží a podél kolejí. Za poslední měsíc, říká Butler, došlo k pěti vážným případům neoprávněného vniknutí, které systémy detekovaly na dvou místech, včetně teenagera sbírajícího míček z drah a muže, „který strávil více než pět minut sbíráním golfových míčků vysokorychlostním čára.“

Na vlakovém nádraží Leeds, jednom z nejrušnějších mimo Londýn, je k platformě SiYtE připojeno 350 CCTV kamer, říká Butler. „Analytika se používá k měření toku lidí a identifikování problémů, jako je přeplněnost platforem a samozřejmě překročení hranice – kde tato technologie dokáže odfiltrovat pracovníky na trati přes jejich OOP,“ říká. „AI pomáhá lidským operátorům, kteří nemohou nepřetržitě monitorovat všechny kamery, rychle vyhodnotit a řešit bezpečnostní rizika a problémy.“

Dokumenty Network Rail tvrdí, že kamery používané na jedné stanici, Reading, umožnily policii urychlit vyšetřování krádeží kol tím, že dokázaly na záběrech přesně určit kola. „Bylo zjištěno, že analytici sice nedokázali s jistotou odhalit krádež, ale mohli odhalit osobu s kolem,“ uvádí se ve spisech. Dodávají také, že nové senzory kvality vzduchu použité v testech by mohly ušetřit čas personálu při ručním provádění kontrol. Jedna instance AI používá data ze senzorů k detekci „potících se“ podlah, které se staly kluzkými v důsledku kondenzace, a upozorní personál, když je třeba vyčistit.

Zatímco dokumenty podrobně popisují některé prvky zkoušek, odborníci na ochranu soukromí tvrdí, že jsou znepokojeni celkovým nedostatkem transparentnosti a debaty o používání umělé inteligence ve veřejných prostorách. V jednom dokumentu určeném k posouzení problémů ochrany dat u systémů Hurfurt z Big Brother Watch říká, že se zdá, že existuje „odmítavý postoj“ k lidem, kteří mohou mít obavy o soukromí. Jedna otázka se ptá: „Je pravděpodobné, že někteří lidé budou mít námitky nebo to považují za rušivé?“ Jeden ze zaměstnanců píše: „Obvykle ne, ale pro některé lidi neexistuje žádné účetnictví.“

Zároveň se po celém světě stále častěji používají podobné sledovací systémy AI, které tuto technologii využívají ke sledování davů. Během olympijských her v Paříži ve Francii koncem tohoto roku bude video sledování AI sledovat tisíce lidí a pokusí se zachytit davové vlny, použití zbraní a opuštěné předměty.

„Systémy, které neidentifikují lidi, jsou lepší než ty, které to dělají, ale obávám se, že to bude kluzký svah,“ říká Carissa Véliz, docentka psychologie na Institutu pro etiku v AI na Oxfordské univerzitě. Véliz poukazuje na podobné pokusy s umělou inteligencí v londýnském metru, které zpočátku rozmazávaly tváře lidí, kteří možná uhýbali před jízdným, ale poté změnili přístup, rozmazali fotografie a uchovali snímky déle, než bylo původně plánováno.

„Existuje velmi instinktivní snaha rozšířit dohled,“ říká Véliz. „Lidské bytosti rády vidí více, vidí dále. Ale sledování vede ke kontrole a kontrola ke ztrátě svobody, která ohrožuje liberální demokracie.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com