Wpis Google advances Gemini AI agents for Pentagon amid pushback ukazał się na BitcoinEthereumNews.com. Agenci AI Google Gemini wspierają zadania w niejawnych systemach PentagonuWpis Google advances Gemini AI agents for Pentagon amid pushback ukazał się na BitcoinEthereumNews.com. Agenci AI Google Gemini wspierają zadania w niejawnych systemach Pentagonu

Google rozwija agentów AI Gemini dla Pentagonu pomimo sprzeciwu

2026/03/11 02:51
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

Agenci AI Google Gemini wspierają zadania w niejawnych sieciach Pentagonu

Google dostarczy agentów AI opartych na Gemini do Departamentu Obrony USA do pracy niejawnej w sieciach Pentagonu, zgodnie z news.bloomberglaw.com/federal-contracting/google-to-provide-pentagon-with-ai-agents-for-unclassified-work" target="_blank" rel="nofollow noopener">Bloomberg Law (https://news.bloomberglaw.com/federal-contracting/google-to-provide-pentagon-with-ai-agents-for-unclassified-work?utm_source=openai). Podsekretarz Obrony ds. Badań i Inżynierii Emil Michael ogłosił, że agenci początkowo będą działać w niejawnych sieciach obsługujących ponad 3 miliony pracowników departamentu. Departament zasygnalizował również zainteresowanie rozszerzeniem agentów na systemy tajne lub ściśle tajne, ale obecna faza pozostaje niejawna.

To wdrożenie jest przedstawiane jako wsparcie dla zadań w niejawnych sieciach Pentagonu. Stawia to również natychmiastowe pytania dotyczące zarządzania, gdy popyt wojskowy spotyka się z barierami bezpieczeństwa narzuconymi przez dostawców.

Dlaczego jest to ważne dla zarządzania, etyki i operacji obronnych

Jak donosi TechRadar (https://www.techradar.com/pro/security/pentagon-may-sever-anthropic-relationship-over-ai-safeguards-claude-maker-expresses-concerns-over-hard-limits-around-fully-autonomous-weapons-and-mass-domestic-surveillance?utm_source=openai), Sekretarz Obrony wezwał firmy do zezwolenia na szersze wykorzystanie AI do „wszystkich zgodnych z prawem celów", sygnalizując presję na złagodzenie ograniczeń modeli. Ta postawa podnosi znaczenie zamówień, zgodności i nadzoru w przepływach pracy obronnych. Dostawcy z twardymi limitami mogą napotkać tarcia kontraktowe, jeśli język wydaje się umożliwiać autonomię poza ich polityką.

Prace akademickie podkreślają, że ryzyko rośnie wraz ze wzrostem autonomii agentów AI i zmniejszeniem się nadzoru ludzkiego, na podstawie badań arXiv (https://arxiv.org/abs/2502.02649?utm_source=openai). W przypadku operacji obronnych ta dynamika sprawia, że audytowalność, progi eskalacji i przypisanie odpowiedzialności są kluczowe dla bezpiecznego wdrożenia.

Anthropic reprezentuje kontrastujące podejście, odmawiając złagodzenia barier wokół w pełni autonomicznej broni lub masowej krajowej inwigilacji. „nie może w dobrej wierze" zastosować się do tych aspektów, powiedział Dario Amodei, CEO, jak donosi AP News (https://apnews.com/article/9b28dda41bdb52b6a378fa9fc80b8fda?utm_source=openai). To stanowisko podkreśla, jak polityka dostawców może ograniczać pewne aplikacje obronne, nawet gdy użycie może być prawnie dozwolone.

Bezpośredni wpływ jest ograniczony: agenci AI Google Gemini są w tej fazie ograniczeni do niejawnych sieci Pentagonu. Ten zakres pozwala zespołom operacyjnym ocenić niezawodność i zgodność z polityką przed jakimkolwiek szerszym wdrożeniem.

Kluczowe ograniczenia obejmują bariery dostawców, które zabraniają określonych zastosowań, oraz dążenie departamentu do autoryzacji „wszystkich zgodnych z prawem celów". Kolejne kroki zależą od języka umowy, przeglądów ryzyka i dostosowania między barierami modeli a polityką obronną.

Kluczowe napięcia: autonomia, inwigilacja i bariery dostawców

Dążenie DoD do wszystkich zgodnych z prawem celów kontra twarde bariery

Apel departamentu o „wszystkie zgodne z prawem cele" tworzy tarcia z dostawcami, którzy utrzymują twarde limity bezpieczeństwa. Sedno polega na tym, jak daleko może sięgać autonomia, zachowując jednocześnie ludzką odpowiedzialność i nadzór. To napięcie będzie kształtować zakres, kryteria akceptacji i ścieżki eskalacji dla agentów AI.

Odmowa Anthropic dotycząca autonomicznej broni i ryzyka masowej inwigilacji

Anthropic wyznaczył wyraźną czerwoną linię, odmawiając zastosowań związanych z w pełni autonomiczną bronią lub masową krajową inwigilacją, co odzwierciedlają publiczne oświadczenia jego kierownictwa. Ta pozycja zawęża pewne ścieżki obronne i nadaje priorytet systemom kontrolowanym przez ludzi.

FAQ o agentach AI Google Gemini

Czy DoD rozszerzy tych agentów AI z niejawnych na tajne lub ściśle tajne systemy i w jakim terminie?

Departament zasygnalizował zainteresowanie rozszerzeniem na sieci tajne lub ściśle tajne; nie ujawniono publicznego harmonogramu.

Jak odmowa Anthropic złagodzenia barier wpływa na zamówienia AI Pentagonu i politykę?

Zmniejsza to liczbę kwalifikujących się modeli i wywiera presję na umowy, aby zachować ścisłe bariery, wpływając na język dopuszczalnego użycia, oczekiwania nadzoru i możliwości, które Pentagon może przyjąć.

Źródło: https://coincu.com/news/google-advances-gemini-ai-agents-for-pentagon-amid-pushback/

Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.