Последние новости
Как писать эссе по обществу егэ: структура и советы для успешной сдачи Как сделать маску из круга ткани: простой метод для новичков Комнатный аквариум как модель экосистемы: презентация для учащихся Как найти вторую половинку предназначенную судьбой: советы для настоящих отношений Как подключить стеклоподъемники на ваз 2109: пошаговая инструкция Как назывался дебютный сборник стихов мандельштама и его значение Как узнать свой apple id если забыл: способы восстановления Как поставить знак доллара на клавиатуре: методы для разных раскладок Как нарисовать треугольник вшопе: пошаговая инструкция для новичков

Руководители OpenAI обещают развивать ИИ серьёзно, но спецы в этой сфере уволились

После недавнешней и внезапной отставки 2-ух главных фигур из отдела ИИ-безопасности OpenAI, руководители компании обязаны были занять оборонительную позицию, потому что к ним появилось немало вопросов с общественной стороны в отношении стратегии рисков при разработке искусственного ума.

Ушедшие руководители — самый важный научный работник Илья Суцкевер (Ilya Sutskever) и его сотрудник Ян Лейке (Jan Leike) — были частью суперкоманды OpenAI, отвечающей за разработку ИИ, совместимого с интересами населения земли. Их уход, вероятно, был вызван разногласиями с управлением компании по поводу обеспечения глобального приоритета безопасности, чтоб «ИИ не разрушил мир».

Лейке прямо проговорил, что издавна не согласен с управлением в этих вопросах и что положение, обстановка достигнула критичной точки. А Суцкевер даже пробовал сдвинуть гендиректора Сэма Альтмана (Sam Altman) с поста в прошедшем году, но позже выразил сожаление в собственных действиях.

После их ухода общественность забила тревогу по поводу ценностей OpenAI в плане безопасности. В ответ Альтман и глава Грег Брокман (Greg Brockman) выпустили подробные заявления, объясняющие подход компании.

Они выделили, что OpenAI уже занесла немаленький вклад в обеспечение неопасного развития ИИ, а именно, призывали к межнациональному регулированию еще до того, как это стало мейнстримом. Альтман также предлагал сотворить международное учреждение для обеспечения разумного тестирования систем ИИ.

Брокман заверил, что OpenAI основательно анализирует опасности на каждом шаге разработки и не планирует размещать новые системы, пока компания не будет уверена в их безопасности, даже если это задержит выпуск.

Но ушедшие руководители отдела ИИ-безопасности, похоже, обеспокоены тем, что текущий подход не обеспечивает достаточной защиты. Из слов Лейке, эти задачи очень трудно решать, и он обеспокоен, что компания не движется в правильном направлении в этом вопросе.

Невзирая на заверения управления, уход главных профессионалов ставит под колебание заявления OpenAI о глобальной безопасности ИИ.

Опубликовано: 19 мая 2024