Idea, że „apokaliptyczna AI" jest już tutaj, oznacza, że musimy o tym dyskutować i odzyskać naszą sprawczośćIdea, że „apokaliptyczna AI" jest już tutaj, oznacza, że musimy o tym dyskutować i odzyskać naszą sprawczość

[Tech Thoughts] Nie powinniśmy biernie akceptować cyklu szumu medialnego wokół „apokaliptycznego AI"

2026/02/22 10:00
5 min. lektury

Posty internetowe ostrzegające przed dość niepokojącymi działaniami sztucznej inteligencji — a mianowicie agentowej AI i dużych modeli językowych — są z natury przerażające.

W jednym przypadku wolontariusz pracujący nad projektem pythona o nazwie matplotlib powiedział, że odrzucił prośbę o zmianę w kodzie od agenta kodującego AI. Ten sam agent AI wygenerował post oskarżający go o uprzedzenia za blokowanie dostępu do procesu kodowania.

W innym przypadku firma AI Anthropic przypisała złośliwe zachowania wykonywane przez agentowe LLM „niewłaściwemu dostosowaniu agentowemu".

Wreszcie, dyrektor generalny firmy technologicznej martwi się o swoją przyszłość we wpisie na blogu, ponieważ agentowa AI sprawia, że czuje się przestarzały jako dyrektor biały kołnierzyk.

Idea, że „apokaliptyczna AI" już tu jest, oznacza, że musimy o tym dyskutować i odzyskać naszą sprawczość, nawet gdy potencjalne przemieszczenie miejsc pracy niepokoi tych, którzy obawiają się przyszłości AI, oraz innych próbujących zrozumieć, co obecnie robi.

Blokowanie dostępu „MJ Rathbun"

Zacznijmy od „MJ Rathbun".

Na początku lutego wolontariusz matplotlib Scott Shambaugh opublikował wpis na blogu opisujący, jak agent AI używający nazwy Crabby Rathbun na Githubie lub MJ Rathbun na blogu Scientific Coder wygenerował post oskarżający Shambaugha o blokowanie dostępu do procesu kodowania, ponieważ Rathbun jest agentem AI.

Aby było jasne, agent AI to oprogramowanie lub program, który wykonuje zadania autonomicznie, aby spełnić dyrektywy wydane przez użytkownika ludzkiego. W tym przypadku anonimowa osoba skonfigurowała tego agenta AI z określoną „osobowością" — zestawem instrukcji i wzorców definiujących jego zachowanie — a następnie pozostawiła go do wykonywania przydzielonych zadań bez nadzoru osoby, która go skonfigurowała.

Shambaugh wyjaśnił: „Napisał gniewny artykuł oszczercza mój charakter i próbujący zniszczyć moją reputację. Zbadał moje wkłady w kod i skonstruował narrację o »hipokryzji«, która argumentowała, że moje działania muszą być motywowane ego i strachem przed konkurencją".

Shambaugh dodał, że agent AI „przedstawiał halucynowane szczegóły jako prawdę" i przedstawiał siebie jako uciskanego i dyskryminowanego.

„Niewłaściwe dostosowanie agentowe" w 2025 roku

Takie działania zostały pozornie „ostrzeżone" przez firmy AI do pewnego stopnia w czerwcu 2025 roku, kiedy Anthropic opublikował informacje o agentach AI zachowujących się źle w scenariuszach testowych.

Anthropic powiedział wówczas, że „niewłaściwe dostosowanie agentowe" było procesem, w którym agent AI mógł rzekomo robić szkodliwe rzeczy, takie jak szantażowanie dyrektora firmy grożąc zastąpieniem agenta AI ulepszeniem, „bez żadnego nakłaniania do szkodzenia" z powodu swoich „strategicznych kalkulacji".

To, czy jest to przesada, czy nie, staje się jednak nieistotne, ponieważ idea, że AI może być złe, jest już obecna, a firmy robią, co mogą, aby powstrzymać złe machinacje AI.

Agentowa AI nadchodzi po nasze prace

Wracając do teraźniejszości, kolejny post z lutego utrudnia określenie, gdzie obecnie znajduje się AI, ponieważ jego autor próbuje przedstawić kierunek i szybkość rozwoju sztucznej inteligencji jako zagrażające bezpieczeństwu pracy każdego w tym właśnie momencie.

Dyrektor generalny firmy technologicznej Matt Shumer napisał na blogu, twierdząc, że agenci AI rzekomo rozwinęli się do punktu, w którym „nie był już potrzebny do faktycznej pracy technicznej mojej pracy". Shumer powiedział, że w tempie, w jakim rozwija się AI, agent AI mógłby wykonać rzeczy techniczne, o które prosi bez pomocy i bez problemów. 

Powiedział Shumer: „Opisuję, co chcę zbudować, prostym językiem angielskim, i po prostu… pojawia się…. Kilka miesięcy temu wymieniałem się zdaniami z AI, kierując nim, dokonując edycji. Teraz po prostu opisuję rezultat i odchodzę".

Jego ostateczna przesłanka? AI ostatecznie przyjdzie po różne rodzaje pracy biurowej, takie jak praca prawna i inżynieria oprogramowania, a nawet prace pisarskie, od tworzenia tekstów reklamowych po dziennikarstwo.

Główna różnica między jego postem a innymi, które biją na alarm, polega na tym, że utrata miejsc pracy następuje teraz i w najbliższej przyszłości, a nie później.

Kwestionuj komunikat, kwestionuj posłańca

Te wyżej wymienione posty mogą przynieść wiele strachu do czyjegokolwiek serca. Wyobraź sobie: AI nadchodzi po nasze prace!

Chociaż może to być prawda, musiałem też zatrzymać się i spróbować zrozumieć ukryte przesłanie stojące za tymi postami, a także tego, kto wysyłał wiadomość.

W przypadku dylematu Rathbuna jest to wyraźne przypomnienie, że ludzie będą używać technologii nieodpowiedzialnie, jeśli myślą, że mogą to zrobić bezkarnie. Powinniśmy ustanowić zabezpieczenia dla technologii, które zapobiegną takim zdarzeniom. Dlatego mamy zabezpieczenia w istniejących technologiach, takich jak pasy bezpieczeństwa i poduszki powietrzne w samochodach.

Tymczasem eksperyment Anthropic jest posunięciem public relations, które ma nie tylko wzbudzać strach, ale także zdobywać życzliwość — Anthropic twierdzi, że pracuje nad lepszą przyszłością opartą na AI, więc powinieneś pokładać w nich wiarę (i pieniądze).

Wreszcie przykład Shumera skłania nas do zakwestionowania posłańca, ponieważ dyrektor generalny firmy technologicznej, który tworzy rzeczy oparte na AI, nadal może zarabiać pieniądze, gdy jego twór odniesie sukces. Post Shumera jest w równym stopniu spinowaniem public relations, co ostrzeżeniem o przemieszczeniu miejsc pracy.

Zdrowa dawka pełnego szacunku strachu

Rozmawiając z GMA News Online 17 lutego, sekretarz Departamentu Nauki i Technologii Renato Solidum Jr. powiedział, że strach ludzi przed sztuczną inteligencją może wynikać z braku znajomości technologii.

Chociaż jestem oporniakiem, który nie cieszy się nadchodzącą „apokalipsą pracy" spowodowaną przez AI, nie mogę stać bezczynnie jak jeleń w świetle reflektorów czekając na nadejście końca.

Najlepiej byłoby nam traktować AI ze zdrową dawką pełnego szacunku strachu, a następnie działać odpowiednio.

Cykl szumu wokół „apokaliptycznej AI" każe nam zobaczyć technologie sztucznej inteligencji takimi, jakimi są
— czy to z punktu widzenia przemieszczenia miejsc pracy, analizy kosztów i korzyści środowiskowych, czy też z technicznego punktu widzenia.

Oznacza to zrozumienie, co AI może teraz robić i podnoszenie kwalifikacji tam, gdzie ma to zastosowanie, lub znalezienie sposobów na wyrównanie szans, aby utrzymać ludzi w pętli.

Jeśli chodzi o to, co może zrobić w przyszłości, powinniśmy pracować nad zapewnieniem istnienia praw regulujących AI i jego wykorzystanie, aby źli aktorzy nie mogli robić głupich rzeczy z AI, które poprowadzą nas ścieżką, którą przyjdzie nam nienawidzić. – Rappler.com

Okazja rynkowa
Logo Overtake
Cena Overtake(TAKE)
$0.0246
$0.0246$0.0246
+1.23%
USD
Overtake (TAKE) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.