Розслідування шведських газет Svenska Dagbladet та Göteborgs-Posten виявило, що контрактні працівники в Кенії, найняті компанією Sama — кенійською аутсорсинговою фірмою, що надає послуги анотації даних — для навчання ШІ-систем Meta Platforms, мають широкий доступ до особистих зображень та відео, знятих користувачами смарт-окулярів Ray-Ban компанії.
Звіт, опублікований 27 лютого, проливає світло на приховану людську працю, що стоїть за просуванням Meta у сферу носимого штучного інтелекту, та піднімає нові питання щодо захисту даних, транскордонних передач даних і психологічного навантаження на модераторів контенту, які працюють для Sama в Найробі.
Смарт-окуляри Ray-Ban від Meta, розроблені у партнерстві з EssilorLuxottica, позиціонуються як керований ШІ асистент, який може перекладати мови, описувати оточення, робити фото та відео без використання рук і відповідати на питання про те, що бачить користувач.
Однак, за межами футуристичної презентації, інтерв'ю Svenska Dagbladet з нинішніми та колишніми співробітниками Sama та Meta виявили, що відеозаписи, зроблені через окуляри, потрапляють за тисячі кілометрів до Кенії, де анотатори даних переглядають і маркують їх для покращення роботи системи.
Кілька кенійських працівників розповіли шведській газеті, що вони регулярно стикаються з чутливим матеріалом у ході своєї роботи, включаючи звичайні побутові сцени та інтимні моменти, про запис яких користувачі могли не здогадуватися.
У деяких випадках, за словами працівників, відеозаписи містять фінансову інформацію, наприклад банківські картки, видимі в кадрі, або записи, зроблені в приватних приміщеннях, таких як спальні та ванні кімнати.
«У деяких відео можна побачити, як хтось йде в туалет або роздягається», — сказав журналістам один із працівників Sama. «Я не думаю, що вони знають про це, бо якби знали, вони б не записували».
Інший підрядник стверджував, що переглядав відеозапис, на якому власник окулярів кладе їх на тумбочку біля ліжка, після чого його дружина заходить до кімнати і роздягається, ймовірно, не знаючи, що за нею спостерігають. Інші відеозаписи, за повідомленнями, показували, як власник окулярів дивиться порно або навіть записує себе під час сексу
Згідно з розслідуванням, для носимих пристроїв було мало прозорості. Ритейлери в Європі, за повідомленнями, надавали непослідовну інформацію про те, чи залишаються дані, зафіксовані окулярами, на пристрої, чи передаються на сервери Meta. Незалежне тестування, згадане у звіті, показало, що багато ШІ-функцій окулярів потребують підключення до хмари, що означає, що зображення та голосові введення можуть оброблятися віддалено, а не локально на пристрої.
Sama, раніше Samasource, надає послуги анотації даних великим технологічним компаніям, таким як Meta та OpenAI. Компанію в минулому звинувачували у порушеннях трудового законодавства в деяких її контрактах, зокрема з OpenAI.
Sama вимагає суворих угод про конфіденційність, які обмежують те, що співробітники можуть публічно розголошувати. Але відомості, опубліковані шведськими газетами, свідчать про те, що обіцянка безперебійного ШІ підтримується системою праці, в якій людські рецензенти переглядають великі обсяги необроблених, нефільтрованих даних, щоб алгоритми могли навчитися розпізнавати об'єкти, середовище та контекст.
Meta заявляє у своїй політиці конфіденційності, що контент користувачів може підлягати перевірці людиною для покращення продуктів та забезпечення безпеки. Для європейських користувачів ірландська дочірня компанія відповідає за дотримання Загального регламенту захисту даних ЄС (GDPR).
Однак розслідування піднімає питання про те, як дані, зібрані в Європі або Сполучених Штатах, передаються та обробляються в таких країнах, як Кенія, які не мають рішення ЄС про адекватність, що визнає їхні режими захисту даних еквівалентними GDPR.
Хоча анотація даних, модерація контенту та навчання ШІ стали критично важливими для технологічних амбіцій Найробі, ці роботи — в основному для студентів коледжів та молодих випускників — супроводжуються низькою оплатою, великим навантаженням та впливом тривожного матеріалу.
Meta захищала свої практики в попередніх публічних заявах, говорячи, що інвестує у захист конфіденційності та мінімізує обсяг даних, використовуваних для навчання. Тим не менш, відомості, опубліковані шведськими газетами, свідчать про те, що межа між автоматизованим інтелектом та людським наглядом більш розмита, ніж припускають багато споживачів.


