Заклик до захисту прав викривачів у сфері ШІ: працівники OpenAI, Google та Anthropic вимагають прозорості та безпеки
У вівторок була опублікована відкрита заява, підписана 13-ма нинішніми та колишніми працівниками провідних компаній у сфері штучного інтелекту, таких як OpenAI, Google DeepMind та Anthropic. Вони закликали до підвищення прозорості та захисту від репресій для тих, хто висловлює занепокоєння щодо потенційних ризиків ШІ. “Доки не буде ефективного державного нагляду за цими корпораціями, нинішні та колишні працівники є одними з небагатьох людей, які можуть притягнути їх до відповідальності перед громадськістю,” йдеться у листі.
Ця заява з’явилася лише за кілька тижнів після розслідування Vox, яке виявило, що OpenAI намагалася змусити недавно звільнених працівників підписати агресивні угоди про нерозголошення, або ризикувати втратити свої акції в компанії. Після цього розголосу, генеральний директор OpenAI Сем Альтман висловив збентеження з приводу цього положення і заявив, що воно було вилучено з останніх документів про звільнення, хоча неясно, чи воно все ще діє для деяких працівників. Пізніше представник OpenAI повідомив Engadget, що компанія вилучила пункт про нерозголошення з стандартної документації про звільнення і звільнила всіх колишніх працівників від угод про нерозголошення.
Серед 13 підписантів є колишні працівники OpenAI Джейкоб Гінтон, Вільям Саундерс та Даніель Кокотайло. Кокотайло заявив, що пішов з компанії після втрати довіри до того, що вона відповідально будує штучний загальний інтелект — термін для ШІ систем, які є такими ж розумними як людина або навіть розумнішими за людину. Лист, підтриманий відомими експертами в галузі ШІ, такими як Джеффрі Гінтон, Йошуа Бенджіо та Стюарт Рассел, висловлює серйозне занепокоєння через відсутність ефективного державного нагляду за ШІ та фінансові стимули, що змушують технологічних гігантів інвестувати в цю технологію. Автори попереджають, що неконтрольоване впровадження потужних ШІ систем може призвести до поширення дезінформації, поглиблення нерівності і навіть втрати людського контролю над автономними системами, що може загрожувати зникненням людства.
“Ми багато чого не розуміємо про те, як працюють ці системи і чи залишаться вони узгодженими з інтересами людини, коли стануть розумнішими і можливо, перевершать людський рівень інтелекту у всіх сферах,” написав Кокотайло на X. “Тим часом, над цією технологією майже немає нагляду. Натомість ми покладаємося на компанії, які їх розробляють, щоб вони самостійно регулювалися, навіть коли мотиви отримання прибутку і захоплення технологією змушують їх рухатися швидко. Придушення голосів дослідників і створення страху перед репресіями є небезпечним, оскільки ми є одними з небагатьох, хто може попередити громадськість.”
У заяві представник OpenAI сказав: “Ми пишаємося нашим досвідом у наданні найбільш здатних і безпечних ШІ систем і віримо в наш науковий підхід до управління ризиками. Ми погоджуємося, що жорсткі дебати є ключовими, враховуючи значущість цієї технології, і будемо продовжувати співпрацювати з урядами, громадянським суспільством та іншими спільнотами по всьому світу.”
Вони додали: “Тому ми маємо шляхи для працівників, щоб висловлювати свої занепокоєння, включаючи анонімну гарячу лінію доброчесності та Комітет з безпеки і захисту, очолюваний членами нашої ради та керівниками безпеки компанії.”
Підписанти закликають ШІ компанії дотримуватися чотирьох ключових принципів:
- Утримуватися від репресій проти працівників, які висловлюють занепокоєння щодо безпеки.
- Підтримувати анонімну систему для викривачів, щоб вони могли інформувати громадськість і регуляторів про ризики.
- Сприяти культурі відкритої критики.
- Уникати угод про нерозголошення або недискредитацію, які обмежують працівників від висловлення своїх думок.
Ця заява з’явилася на тлі зростаючого контролю за практиками OpenAI, включаючи розформування їхньої команди з безпеки та звільнення ключових фігур, таких як співзасновник Ілля Суцкевер та Ян Лейке, які критикували пріоритети компанії щодо “блискучих продуктів” над безпекою.