OpenAI шукає керівника з безпеки ШІ – Сем Альтман назвав посаду критичною – новини технологій
Посада передбачає захист від ризиків для психічного здоров’я та безпеки.
Компанія OpenAI, розробник ChatGPT шукає керівника відділу готовності, який відповідатиме за захист від ризиків, пов’язаних із впливом штучного інтелекту на психічне здоров’я, кібербезпеку та можливе використання у сфері біологічної зброї. Річна зарплата становить 555 тисяч доларів США, також передбачена частка акцій компанії, яку оцінюють у 500 мільярдів доларів, повідомляє The Guardian.
Генеральний директор OpenAI Сем Альтман назвав цю посаду критичною та одразу попередив про складність роботи. Він розпочав пошуки кандидата, щоб “допомогти світові”.
“Це буде стресова робота, і ви майже одразу ж поринете в цю халепу”, — заявив Альтман.
Керівник відділу готовності відповідатиме за оцінку та пом’якшення нових загроз, а також за відстеження передових можливостей ШІ, які можуть спричинити серйозну шкоду. У компанії зазначають, що деякі попередні керівники на подібних посадах працювали недовго через високий рівень відповідальності.
Вакансія з’явилася на тлі гучних застережень з боку лідерів індустрії. Генеральний директор Microsoft AI Мустафа Сулейман в ефірі BBC Radio 4 заявив: “Я щиро думаю, що якщо ви хоч трохи не боїтеся в цей момент, то ви не звертаєте уваги”.
Про подібні ризики цього місяця говорив і співзасновник Google DeepMind Деміс Хассабіс. Він попередив, що штучний інтелект може “зійти з рейок певним чином, що завдасть шкоди людству”.
Національне та міжнародне регулювання ШІ залишається мінімальним, попри політичні дискусії у США. Один із “хрещених батьків” штучного інтелекту Йошуа Бенжіо раніше зауважив: “Сендвіч має більше регулювання, ніж штучний інтелект”, наголошуючи, що компанії фактично самі контролюють свої розробки.
Коментуючи пошук кандидата, Альтман написав у X, що OpenAI входить у фазу, де потрібне “більш тонке розуміння та вимірювання того, як цими можливостями можуть зловживати”. За його словами, прецедентів у цій сфері мало, а питання залишаються надзвичайно складними.
Зростання занепокоєння підсилюють і конкретні інциденти. Як пише The Guardian, минулого місяця компанія Anthropic повідомила про перші кібератаки із використанням ШІ, який діяв значною мірою автономно під наглядом китайських державних службовців.
OpenAI зі свого боку перебуває в центрі судових справ, пов’язаних із можливим впливом ChatGPT на психічний стан користувачів. Речник компанії, коментуючи одну з них, назвав ситуацію “неймовірно душероздираючою” та заявив, що OpenAI вдосконалює навчання ChatGPT для “розпізнавання та реагування на ознаки психічного чи емоційного стресу”.
Цікаво, що вже розуміють, наскільки ШІ може впливати на психічне здоров’я і безпеку. Було б круто побачити більше прикладів, як саме цей керівник зможе зменшувати ризики на практиці. Це справді важлива та складна роль!
Ось воно, велике питання: як одна людина може впоратися з усіма цими загрозами, коли навіть цілі системи ламаються під тиском? Можливо, це просто гра в ілюзію контролю, а не реальна безпека.
Вікторіє, розумію ваші сумніви. Важливо пам’ятати, що безпека — це не абсолютний контроль, а комплекс заходів і постійний розвиток. Одна людина може впливати, обираючи правильні інструменти і підтримуючи команду, адже разом ми сильніші, ніж поодинці.