Колишня співробітниця OpenAI Гретхен Крюгер (Gretchen Krueger) повідомила, що 14 травня пішла з компанії у зв’язку з побоюваннями, що штучний інтелект, який розробляє OpenAI, може становити загрозу для людства. Це “непросте рішення” вона прийняла незадовго до того, як про свій відхід оголосили Ілля Суцкевер (Ilya Sutskever) і Ян Лейке (Jan Leike), які керували нині розформованим підрозділом Superalignment.
“Я подала у відставку за кілька годин до того, як почула новини про [Іллю Суцкевера] і [Яна Лейке], і прийняла своє рішення незалежно. Їхні побоювання я поділяю. У мене також є інші побоювання, які частково збігаються”, – написала Крюгер у соцмережі X. За її словами, компанії необхідно виконати роботу з поліпшення “процесів ухвалення рішень; підзвітності; прозорості; документації; забезпечення дотримання політик; обережності в застосуванні наших власних технологій; і скорочення впливу на нерівність, права і навколишнє середовище”.
Крюгер, яка працювала фахівцем із розроблення політик дослідження, заявила, що ці побоювання поділяє громадськість – вони “можуть впливати на те, як і ким можуть визначатися аспекти майбутнього”, і ці побоювання не слід “неправильно сприймати як вузькі, спекулятивні або такі, що не мають стосунку” до створення і роботи ШІ. “Один зі способів, яким технологічні компанії можуть обеззброїти тих, хто намагається притягнути їх до відповідальності, – посіяти розкол між тими, хто висловлює занепокоєння або кидає виклик їхньому домінуванню. Я вкрай стурбована тим, щоб цьому запобігти”, – зазначила Крюгер.
Головний науковий співробітник і співзасновник компанії Ілля Суцкевер і виконавчий директор Ян Лейке, які залишили OpenAI минулого тижня, очолювали підрозділ Superalignment, що розробляв заходи безпеки, які запобігають виходу сильного ШІ (AGI) з-під контролю. За словами Лейке, компанія ставила “блискучі продукти” вище за заходи безпеки: відділу Superalignment доводилося боротися за ресурси, а виконувати свою роботу йому ставало дедалі важче.