Celní správa Spojených států a Border Protection plánuje utratit 225 000 dolarů za rok za přístup k Clearview AI, nástroji pro rozpoznávání obličejů, který porovnává fotografie s miliardami obrázků seškrábaných z internetu.
Dohoda rozšiřuje přístup k nástrojům Clearview na zpravodajskou divizi ústředí Border Patrol (INTEL) a National Targeting Center, jednotky, které shromažďují a analyzují data jako součást toho, co CBP nazývá koordinovaným úsilím o „narušení, degradaci a demontáž“ lidí a sítí považovaných za bezpečnostní hrozby.
Smlouva uvádí, že Clearview poskytuje přístup k „více než 60 miliardám veřejně dostupných obrázků“ a bude používán pro „taktické zaměřování“ a „strategickou analýzu protisítě“, což naznačuje, že služba je určena k začlenění do každodenní zpravodajské práce analytiků spíše než vyhrazena pro izolovaná vyšetřování. CBP říká, že její zpravodajské jednotky čerpají z „různých zdrojů“, včetně komerčně dostupných nástrojů a veřejně dostupných dat, k identifikaci lidí a mapování jejich spojení pro národní bezpečnost a imigrační operace.
Dohoda předpokládá, že analytici nakládají s citlivými osobními údaji, včetně biometrických identifikátorů, jako jsou obrázky obličejů, a vyžaduje smlouvy o mlčenlivosti pro dodavatele, kteří mají přístup. Nespecifikuje, jaké druhy fotografií budou agenti nahrávat, zda vyhledávání mohou zahrnovat občany USA nebo jak dlouho budou nahrané obrázky nebo výsledky vyhledávání uchovány.
Smlouva Clearview končí, když ministerstvo pro vnitřní bezpečnost čelí rostoucí kontrole nad tím, jak se rozpoznávání tváří používá při federálních donucovacích operacích daleko za hranicemi, včetně rozsáhlých akcí ve městech USA, které zasáhly americké občany. Skupiny pro občanské svobody a zákonodárci se ptají, zda jsou nástroje pro vyhledávání obličejů nasazovány jako rutinní zpravodajská infrastruktura, spíše než omezené vyšetřovací pomůcky, a zda ochranná opatření drží krok s expanzí.
Minulý týden senátor Ed Markey představil legislativu, která by ICE a CBP zcela zakázala používat technologii rozpoznávání obličejů, s odvoláním na obavy, že biometrické sledování je začleněno bez jasných limitů, transparentnosti nebo veřejného souhlasu.
CBP neodpověděla okamžitě na otázky, jak bude Clearview integrován do jejích systémů, jaké typy obrázků jsou agenti oprávněni nahrávat a zda vyhledávání mohou zahrnovat občany USA.
Obchodní model společnosti Clearview si získal pozornost, protože se spoléhá na seškrabování fotografií z veřejných webů ve velkém měřítku. Tyto snímky jsou převedeny na biometrické šablony bez vědomí nebo souhlasu fotografovaných osob.
Clearview se také objevuje v nedávno vydaném inventáři umělé inteligence DHS, spojeném s pilotním projektem CBP zahájeným v říjnu 2025. Záznam inventáře spojuje pilota se systémem CBP Traveler Verification System, který provádí porovnávání obličejů ve vstupních přístavech a další kontroly související s hranicemi.
CBP ve své dokumentaci o veřejném soukromí uvádí, že Traveler Verification System nepoužívá informace z „komerčních zdrojů nebo veřejně dostupných údajů“. Je pravděpodobnější, že při spuštění bude přístup k Clearview místo toho vázán na Automated Targeting System společnosti CBP, který propojuje biometrické galerie, seznamy sledovaných a vynucovací záznamy, včetně souborů souvisejících s nedávnými operacemi v oblasti přistěhovalectví a celního vymáhání v oblastech USA daleko od jakékoli hranice.
Clearview AI okamžitě neodpověděla na žádost o komentář.
Nedávné testy provedené Národním institutem pro standardy a technologie, které hodnotily Clearview AI mezi ostatními prodejci, zjistily, že systémy pro vyhledávání obličejů mohou fungovat dobře na „vysoce kvalitních fotkách podobných vízům“, ale pokulhávají v méně kontrolovaných nastaveních. Snímky pořízené na hraničních přechodech, které „nebyly původně určeny pro automatické rozpoznávání obličejů“, produkovaly chybovost, která byla „mnohem vyšší, často přesahující 20 procent, dokonce i s přesnějšími algoritmy,“ říkají federální vědci.
Testování podtrhuje hlavní omezení této technologie: NIST zjistil, že systémy pro vyhledávání obličejů nemohou omezit falešné shody, aniž by zároveň zvýšily riziko, že systémy nerozpoznají správnou osobu.
V důsledku toho NIST říká, že agentury mohou provozovat software v „vyšetřovacím“ prostředí, které vrací seřazený seznam kandidátů pro kontrolu člověkem spíše než jedinou potvrzenou shodu. Když jsou systémy nakonfigurovány tak, aby vždy vracely kandidáty, vyhledávání osob, které ještě nejsou v databázi, bude stále generovat „shody“ ke kontrole. V těchto případech budou výsledky vždy 100% chybné.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com