Последние новости
Надёжность полного привода: выбор и стоимость раздаточной коробки для «Нивы Шевроле» Как поставить суффикс в ворде над буквой Как называется внутренняя среда природного сообщества Как избавиться от грибов на газоне Защищу или защитю как правильно Как откатить виндовс 7 до заводских настроек Как найти область определения логарифмической функции Как снять старую краску с бетонной стены Как привязать плетенку к шпуле катушки

Разработчики ИИ угрожают оставить Кремниевую равнину в случае принятия закона о жёстком регулировании ИИ в Калифорнии

Наикрупнейшие компании в сфере искусственного ума, базирующиеся в Калифорнии, выступили против нового законопроекта, принятого сенатом этого штата. Этот законопроект, который должен быть рассмотрен на генеральной ассамблее в августе, вводит жёсткие требования к обеспечению безопасности систем ИИ.

Кремниевая равнина переживает важный кризис в связи с предлагаемым законопроектом о безопасности искусственного ума в Калифорнии. Наикрупнейшие игроки промышленности, включая OpenAI, Anthropic, Cohere и Meta✴, выступают против серьезных норм безопасности, которые могут лимитировать развитие их передовых моделей ИИ, рассказывает Financial Times.

Законопроект, уже одобренный сенатом штата и ожидающий голосования в ассамблее в августе, просит от компаний обеспечивать, что они не будут создавать модели ИИ с небезопасными способностями, такими как разработка био либо ядерного орудия. Также, разработчики должны будут постоянно проходить проверки безопасности и ввести «катастрофический выключатель» для критического отключения собственных моделей.

Но многие представители технологического сектора считают, что законопроект накладывает лишние ограничения и финансовое бремя на компании, в особенности на маленькие стартапы. Эндрю Нг (Andrew Ng), популярный исследователь в области ИИ, проговорил, что эти правила «подавляют новые технологии» и «разжигают ужас у тех, кто осмеливается вводить новые технологии». В особенности острой критике подвергается возможное негативное воздействие законопроекта на модели ИИ с открытым начальным кодом. Разработчики боятся, что они могут быть привлечены к ответственности за деяния злоумышленников, манипулирующих их открытыми моделями. Арун Рао (Arun Rao) из Meta✴ даже проговорил, что законопроект «положит конец открытому начальному коду в Калифорнии».

Зачинателем законопроекта выступил Центр безопасности искусственного ума (CAIS), некоммерческая организация, связанная с движением действенного альтруизма. Законодатель Скотт Винер (Scott Wiener), создатель законопроекта, настаивает на том, что его цель — обеспечить успешное развитие ИИ при одновременном учёте рисков безопасности. Он планирует внести поправки, уточняющие сферу внедрения закона и снижающие потенциальную ответственность разработчиков открытых моделей.

На фоне глобальных усилий по регулированию быстро развивающейся отрасли ИИ, — законопроект вызывает важные опаски в Кремниевой равнине. Некие инвесторы уже получают запросы от основоположников стартапов, рассматривающих возможность переезда из штата. Специалисты призывают к больше целенаправленному подходу в законодательстве, направленному на определенные варианты использования ИИ, но не на общее регулирование разработки моделей.

Скандал вокруг калифорнийского законопроекта отражает нарастающее напряжение меж рвением обеспечить безопасность ведущих технологий и опасениями, что чрезмерное регулирование искусственного ума может затормозить новые технологии. По мере того, как законодатели пробуют отыскать баланс, финал этой битвы может иметь неблизко идущие последствия для грядущего ИИ не только лишь в Калифорнии, да и во всём мире.

Опубликовано: 8 июня 2024