Označení antropického dodavatelského řetězce-rizika zastaveno soudcem



Antropický vyhrál a předběžné opatření zakazující americkému ministerstvu obrany označit to za riziko dodavatelského řetězce, což může zákazníkům uvolnit cestu k obnovení spolupráce se společností. Čtvrteční rozhodnutí Rity Lin, federální okresní soudkyně v San Franciscu, je pro Pentagon symbolickou překážkou a významnou vzpruhou pro generativní společnost s umělou inteligencí, která se snaží zachovat své podnikání a pověst.

„Označení Anthropic obžalovanými jako ‚riziko dodavatelského řetězce‘ je pravděpodobně v rozporu se zákonem a svévolné a svévolné,“ napsal Lin v odůvodnění dočasné úlevy. „Ministerstvo války neposkytuje žádný legitimní základ pro vyvození z přímého trvání Anthropic na omezení používání, že by se mohlo stát sabotérem.“

Anthropic a Pentagon okamžitě nereagovaly na žádosti o vyjádření k rozsudku.

Ministerstvo obrany, které si za Trumpa říká Ministerstvo války, se v posledních několika letech spoléhalo na nástroje Claude AI společnosti Anthropic pro psaní citlivých dokumentů a analýzu utajovaných dat. Ale tento měsíc to Claudeovi začalo vytahovat špínu poté, co zjistilo, že Anthropicu nelze věřit. Představitelé Pentagonu citovali četné případy, kdy společnost Anthropic údajně zavedla nebo se snažila zavést omezení používání svých technologií, která Trumpova administrativa považovala za zbytečná.

Administrativa nakonec vydala několik směrnic, včetně označení společnosti za riziko dodavatelského řetězce, což mělo za následek pomalé zastavení používání Clauda napříč federální vládou a poškození prodeje a veřejné pověsti Anthropic. Společnost podala dvě žaloby, ve kterých sankce napadla jako protiústavní. Při úterním slyšení Lin řekl, že se zdá, že vláda protizákonně „ochromuje“ a „trestá“ Anthropic.

Linovo čtvrteční rozhodnutí „obnovuje status quo“ do 27. února, před vydáním směrnic. „Žádnému obžalovanému to nebrání v tom, aby podnikl jakékoli zákonné kroky, které by měl k dispozici,“ napsala. „Například tato objednávka nevyžaduje, aby ministerstvo války používalo produkty nebo služby společnosti Anthropic, a nebrání ministerstvu války v přechodu k jiným poskytovatelům umělé inteligence, pokud jsou tyto akce v souladu s platnými předpisy, zákony a ústavními ustanoveními.“

Rozhodnutí naznačuje, že Pentagon a další federální agentury mají stále možnost zrušit dohody s Anthropic a požádat dodavatele, kteří integrují Clauda do svých vlastních nástrojů, aby s tím přestali, ale bez uvedení označení dodavatelského řetězce jako základu.

Okamžitý dopad je nejasný, protože Linův příkaz vstoupí v platnost až za týden. A federální odvolací soud ve Washingtonu, DC, musí ještě rozhodnout o druhé žalobě Anthropic, která se zaměřuje na jiný zákon, podle kterého společnost také nesměla poskytovat software armádě.

Anthropic by však mohl použít Linovo rozhodnutí k tomu, aby některým zákazníkům, kteří se zajímají o práci s vyděděncem v oboru, ukázal, že zákon může být z dlouhodobého hlediska na její straně. Lin nenastavil plán, jak učinit konečné rozhodnutí.


Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

Hledám Holky na sex v Praze * Hledám Erotické masáže v Praze * Hledám Holky na sex v Brně * Hledám Erotické masáže v Brně *

Recenze na sexuální služby v ČR - Noření.cz
DotekSlova.cz