Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как опытный аналитик в технологической отрасли, я нахожу недавний публичный диалог между Сэмом Альтманом и Грегом Брокманом из OpenAI по поводу ухода Яна Лейке, их бывшего главного офицера по безопасности, весьма интригующим.


Сэм Альтман и Грег Брокман, лидеры OpenAI, организации, стоящей за ChatGPT, недавно рассказали о недавнем уходе Яна Лейке из компании на публичном форуме на X.com. Ян Лейке был заметной фигурой в команде безопасности OpenAI.

Согласно недавней статье CryptoMoon, Лейке занимал должность руководителя отдела согласования в фирме. Однако 17 мая он объявил о своем уходе из-за неразрешимых конфликтов с руководством компании.

Руководство OpenAI отвечает на обвинения бывших сотрудников в безопасности

«Лейке утверждает, что приоритет разработки впечатляющих продуктов над культурой и процедурами безопасности стал распространенным в OpenAI».

В течение дня после публикации Лейке Брокман и Альтман быстро отреагировали, и каждый быстро присоединился к X.com.

Что касается вклада Брокмана, он предложил подробный и сложный план, состоящий из трех ключевых элементов, для обеспечения согласованности безопасности внутри компании.

Для начала он признал ценный вклад, который Лейке внес в компанию, прежде чем выразить несогласие с утверждением, что OpenAI пренебрегает вопросами безопасности.

Руководство OpenAI отвечает на обвинения бывших сотрудников в безопасности

Как аналитик, я бы сказал это так: «В своей статье я привлек внимание к потенциальным опасностям и преимуществам общего искусственного интеллекта (AGI). Примечательно, что моя организация выступала за глобальное регулирование AGI задолго до того, как он стал широко распространенной технологией. обсуждаемая тема».

«Во-вторых, мы закладываем основы, необходимые для безопасного развертывания все более эффективных систем. Выяснить, как впервые сделать новую технологию безопасной, непросто».

В заключительной части выступления Брокмана он подчеркнул, что предстоящие проблемы будут более масштабными, чем те, с которыми мы сталкивались в прошлом. Для нас крайне важно постоянно совершенствовать наши меры безопасности, чтобы соответствовать растущим рискам, связанным с каждой новой моделью.

Я проанализировал ситуацию и обнаружил, что в отличие от других технологических гигантов мы подходим к разработке более осторожно. Мы не уверены, когда именно мы достигнем порога безопасности для выпуска новых функций, что может привести к увеличению сроков запуска.

Как исследователь, изучающий недавнее сообщение Сэма Альтмана, я заметил, что, хотя он сохранил свое первоначальное сообщение по определенной теме, он намекнул на то, что поделится дальнейшими идеями в ближайшем будущем.

«Согласен с оценкой Альтмана. Доводы Лейке вызывают серьезные опасения; мы полны решимости заняться их дальнейшим решением».

Смотрите также

2024-05-19 19:39