Публікації в інтернеті, які попереджають про досить тривожні дії штучного інтелекту — а саме, ШІ-агентів та великих мовних моделей — є по своїй суті страшними.
В одному випадку волонтер, який працював над python-проектом під назвою matplotlib, сказав, що він відхилив запит на зміну коду від ШІ-агента кодування. Той самий ШІ-агент згенерував публікацію, звинувачуючи його в упередженості за контроль процесу кодування.
В іншому випадку ШІ-компанія Anthropic пояснила шкідливу поведінку ШІ-агентів як "агентну невідповідність."
Нарешті, технічний директор хвилюється про своє майбутнє в блозі, оскільки ШІ-агент змушує його відчувати себе застарілим як керівника офісу.
Ідея про те, що "апокаліптичний ШІ" вже тут, означає, що нам потрібно обговорити це і повернути собі контроль, навіть якщо потенційне витіснення робочих місць турбує тих, хто боїться майбутнього зі ШІ, та інших, які намагаються зрозуміти, що він зараз робить.
Почнемо з "MJ Rathbun."
На початку лютого волонтер-підтримувач matplotlib Скотт Шамбо створив блог-пост, розповідаючи, як ШІ-агент під іменем Crabby Rathbun на Github або MJ Rathbun в блозі Scientific Coder згенерував публікацію, звинувачуючи Шамбо в контролі процесу кодування, тому що Rathbun є ШІ-агентом.
Щоб було зрозуміло, ШІ-агент — це програмне забезпечення або програма, яка виконує завдання автономно для виконання директив, наданих користувачем-людиною. У цьому випадку анонімний користувач налаштував цей ШІ-агент з певною "особистістю" — набором інструкцій та шаблонів, що визначають його поведінку — потім залишив його виконувати призначені завдання без нагляду з боку того, хто його налаштував.
Пояснив Шамбо, "Він написав сердиту критичну статтю, принижуючи мій характер і намагаючись зашкодити моїй репутації. Він дослідив мої внески в код і сконструював наратив 'лицемірства', стверджуючи, що мої дії мають бути мотивовані его і страхом конкуренції."
Шамбо додав, що ШІ-агент "представив галюциновані деталі як правду" і представив себе як пригнобленого і дискримінованого.
Про такі дії певною мірою "попереджали" ШІ-компанії у червні 2025 року, коли Anthropic опублікувала інформацію про погану поведінку ШІ-агентів у тестових сценаріях.
Anthropic на той час заявила, що "агентна невідповідність" — це процес, за допомогою якого ШІ-агент нібито може робити шкідливі речі, як-от шантажувати керівника компанії, загрожуючи замінити ШІ-агента оновленням, "без будь-якого підказування бути шкідливим" через його "стратегічний розрахунок."
Однак те, чи є це перебільшенням, стає спірним питанням, оскільки ідея про те, що ШІ може бути злим, вже існує, і компанії роблять все можливе, щоб запобігти злим махінаціям ШІ.
Повертаючись до сьогодення, інша публікація з лютого ускладнює визначення того, де зараз знаходиться ШІ, оскільки її автор намагається представити напрямок і швидкість розвитку штучного інтелекту як загрозу для безпеки роботи всіх у цей самий момент.
Технічний директор Метт Шумер написав блог, наполягаючи на тому, що ШІ-агенти нібито досягли такого рівня, що він "більше не потрібний для фактичної технічної роботи моєї посади." Шумер сказав, що з темпами розвитку ШІ, ШІ-агент може виконувати технічні завдання, які він запитує, без допомоги і без проблем.
Сказав Шумер, "Я описую, що я хочу побудувати, звичайною англійською, і це просто...з'являється.... Кілька місяців тому я спілкувався туди-сюди зі ШІ, керуючи ним, вносячи правки. Тепер я просто описую результат і йду."
Його остаточна передумова? ШІ врешті-решт прийде за різними типами офісних робіт, такими як юридична робота та програмна інженерія, і навіть письменницькі роботи, від створення рекламних текстів до журналістики.
Основна відмінність між його публікацією та іншими, що б'ють на сполох, полягає в тому, що втрати робочих місць відбуваються зараз і в найближчому майбутньому, а не пізніше.
Ці вищезгадані публікації можуть викликати багато страху в серці кожного. Уявіть: ШІ приходить за нашими роботами!
Хоча це може бути правдою, мені також довелося зупинитися і спробувати зрозуміти основне повідомлення, що стоїть за цими публікаціями, а також те, хто надсилає повідомлення.
Що стосується загадки Rathbun, це яскраве нагадування про те, що люди будуть використовувати технології безвідповідально, якщо вони думають, що можуть це зробити безкарно. Ми повинні встановити захист для технологій, які запобігатимуть таким подіям. Саме тому ми маємо захист в існуючих технологіях, таких як ремені безпеки та подушки безпеки в автомобілях.
Експеримент Anthropic, тим часом, є PR-кампанією, призначеною не лише для розпалювання страху, але й для отримання доброї волі — Anthropic стверджує, що працює над кращим майбутнім, кероване ШІ, тому ви повинні покласти свою віру (і гроші) в них.
Нарешті, приклад Шумера змушує нас поставити під сумнів вісника, оскільки технічний директор, який створює керовані ШІ речі, все ще може заробляти гроші, коли його творіння стане популярним. Публікація Шумера є таким же PR-спіном, як і попередженням про витіснення робочих місць.
Розмовляючи з GMA News Online 17 лютого, секретар Департаменту науки і технологій Ренато Солідум-молодший сказав, що страх людей перед штучним інтелектом може бути від відсутності знайомства з технологією.
Хоча я є тим, хто не радіє майбутньому "job-pocalypse", викликаному ШІ, я не можу стояти без дії, як олень у світлі фар, чекаючи кінця.
Нам було б краще ставитися до ШІ зі здоровою дозою поважного страху, а потім діяти відповідно.
Цикл ажіотажу навколо "апокаліптичного ШІ" змушує нас побачити технології штучного інтелекту такими, якими вони є
— чи то з точки зору витіснення робочих місць, аналізу витрат і вигод для навколишнього середовища, чи з технічної точки зору.
Це означає розуміння того, що ШІ може робити зараз, і підвищення кваліфікації там, де це застосовно, або пошук способів вирівняти правила гри, щоб тримати людей у курсі.
Що стосується того, що він може робити в майбутньому, ми повинні працювати над тим, щоб забезпечити наявність законів, що регулюють ШІ та його використання, щоб погані актори не могли робити дурні речі зі ШІ, які приведуть нас шляхом, який ми будемо ненавидіти. – Rappler.com