Duel mezi Anthropicem a Ministerstvem války
Možná jste v posledním týdnu zaznamenali spor mezi americkým Ministerstvem obrany (války?) a společností Anthropic o tom, k čemu může Ministerstvo modely vyvinuté startupem používat. Zdá se, že americká vláda použila model Claude k operaci ve Venezuele, tedy únosu venezuelského diktátora Madura, díky smlouvě, kterou má Anthropic s dominantním technologickým dodavatelem americké armády, společností Palantir. Aktuální smlouva ale neumožňovala americké vládě používat modely od Anthropicu k masovému sledování američanů na půdě USA ani použití v autonomních zbrojních systémech bez lidského dohledu, což se nyní americký ministr obrany Pete Hegseth snažil změnit.
Problémem pro americkou vládu je fakt, že Anthropic, jako společnost, které záleží na bezpečnosti (více jsme psali v minulém vydání), smlouvu měnit nechtěl (i přes jeho mezi AI společnostmi nejbližší spolupráci právě na utajených vojenských projektech v USA). Dario Amodei oznámil, že zatímco si je Anthropic vědom toho, že privátní společnost nemůže dělat vojenská rozhodnutí, v některých případech může AI podrývat demokratické hodnoty, a proto tyto případy nikdy nebyly zahrnuty v jejich smlouvách (ano, jedná se právě o masové sledování či plně autonomní zbraně).
Americké Ministerstvo obrany poté tvrdilo, že bude spolupracovat jen se společnostmi, které umožní „jakékoliv zákonné využití“, ale Anthropic odmítl ustoupit.
Palantir is caught in the middle of a brewing fight between Anthropic and the Pentagon - Fast Company
A zdá se, že ustupovat nechtělo ani Ministerstvo – i když nám připadá, že ty dva limity, které si Anthropic vymezil, nejsou něco, co by mu mělo vadit. Překročení jednoho by bylo extrémně korozivní pro demokracii a překročení druhého by bylo nerozumné z technických důvodů, jelikož AI dnes ještě není natolik spolehlivá, aby mohla přímo ovládat zbraňové systémy (i kdybych odhlédli od morálních otázek této věci).
Výsledkem nyní je, že jak Pentagon, tak prezident Trump označili Anthropic za riziko pro národní bezpečnost a dodavatelský řetězec, což (z našeho limitovaného pochopení) znamená, že jak federální vláda, tak společnosti, co jí prodávají služby a zboží, nesmí AI modely od Anthropicu používat. Anthropic se zároveň nechal slyšet, že toto rozhodnutí napadne u soudu. Označení za riziko tohoto typu je totiž nálepka, která se i na např. čínské firmy používá velice zřídka. U americké společnosti jde o historické poprvé.
S námi rezonuje pozice bloggera Scotta Alexandera, který očekával, že:
,,In the real world, the Pentagon cancels its contract with Anthropic, pays whatever its normal contract cancellation damages are, learns an important lesson about negotiating things beforehand next time, and replaces them with OpenAI or Google, accepting the minor annoyance of getting them connected to the classified systems. If OpenAI and Google are also unwilling to participate in this, they use Grok. If they’re unhappy with having use an inferior technology, they think hard about why no intelligent people capable of making good products are willing to work with them.”
„Ve skutečném světě by Pentagon zrušil smlouvu s Anthropicem, zaplatil běžné odstupné za zrušení smlouvy, poučil se z toho, že příště je třeba věci vyjednat předem, a nahradil je společnostmi OpenAI nebo Google, přičemž by akceptoval malé nepříjemnosti spojené s jejich připojením k tajným systémům. Pokud OpenAI a Google také nebudou ochotni se na tomto podílet, použijí Grok. Pokud nebudou spokojeni s používáním méně kvalitní technologie, zamyslí se nad tím, proč s nimi nechtějí spolupracovat inteligentní lidé schopní vytvářet dobré produkty.”
Zaměstnanci Google a OpenAI začali podepisovat petici za podporu Anthropicu. Zároveň se na síti X začal objevovat velice zajímavý detail, který ukazuje, že Anthropic neblafuje — během svých interviews, před tím, než člověk nastoupí, říkají všem potenciálním budoucím zaměstnancům, že pokud dojde k volbě mezi sražením hodnoty akcie na nulu a bezpečností, je možné, že Anthropic si vybere možnost první a že s tím mají počítat (což je něco, co legálně dělat mohou jako Public Benefit Corporation (PBC), jejímž cílem není jen maximalizace profitu).
Zdroj: https://stanislavfort.substack.com/p/pokrok-v-ai-newsletter-c-41