Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


Как аналитик с опытом работы в области этики и безопасности ИИ, я глубоко обеспокоен недавними событиями в OpenAI. Отставка ключевых членов их команды, занимающейся безопасностью ИИ, в том числе Ильи Суцкевера и Яна Лейке, является тревожным знаком.


Все члены команды OpenAI, занимающиеся устранением потенциальных рисков, связанных с искусственным интеллектом, либо покинули организацию, либо, очевидно, присоединились к другим исследовательским группам.

После того, как Илья Суцкевер, главный научный сотрудник OpenAI и соучредитель компании, объявил о своем уходе, я, как член суперкоманды по согласованию OpenAI, и ее другой соруководитель, Ян Лейке, поделился на X, что подал в отставку.

Судя по заявлению Лейке, он покинул компанию, поскольку был обеспокоен тем, что она уделяет приоритетное внимание разработке продуктов в ущерб обеспечению безопасности ИИ.

Исследователи безопасности ИИ покидают OpenAI из-за проблем с расстановкой приоритетов

Как аналитик, я бы интерпретировал точку зрения Лейке следующим образом: в ряде публикаций я утверждал, что нынешний фокус OpenAI на конкретных приоритетах, установленных их руководством, может быть не самым эффективным подходом по мере нашего продвижения к разработке общего искусственного интеллекта (AGI). . Вместо этого я решительно выступаю за то, чтобы в наших усилиях по разработке AGI уделялось приоритетное внимание безопасности и готовности.

AGI относится к теоретической форме искусственного интеллекта, способной соответствовать человеческим способностям или превосходить их в различных задачах.

В OpenAI, где Лейке проработал три года, он выразил обеспокоенность по поводу ориентации компании на создание привлекательных продуктов в ущерб созданию сильной культуры и процедур безопасности ИИ. Он подчеркнул важность выделения ресурсов, особенно с точки зрения вычислительной мощности, для поддержки важных исследований в области безопасности его команды, которыми пренебрегали.

«…Я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы, наконец, не достигли критической точки. Последние несколько месяцев моя команда шла против ветра…»

Прошлым летом OpenAI создала новое исследовательское подразделение с целью предвидеть возможное появление объектов с искусственным интеллектом, которые смогут превзойти человеческий интеллект и потенциально представлять угрозу для своих создателей. Илья Суцкевер, главный научный сотрудник и соучредитель OpenAI, был назван одним из руководителей группы, курирующей этот проект, которому был предоставлен доступ к 20% вычислительных возможностей OpenAI.

После того, как несколько членов команды ушли в отставку, OpenAI решила распустить подразделение Superalignment и передать его обязанности другим текущим исследовательским направлениям внутри компании. Считается, что это решение связано с процессом реструктуризации всей организации, который был запущен после затруднительного управления в ноябре 2023 года.

Как исследователь, внимательно следящий за разработками OpenAI, я могу сообщить, что в ноябре прошлого года Суцкевер и другие члены совета директоров OpenAI предприняли попытку сменить Альтмана на посту генерального директора. Однако это решение встретило сильное сопротивление со стороны сотрудников OpenAI, в результате чего Альтман был восстановлен на своей должности.

Основываясь на отчете The Information, Суцкевер сообщил сотрудникам, что решение совета директоров об увольнении Сэма Альтмана представляет собой их обязанность обеспечить создание OpenAI общего искусственного интеллекта (AGI), который служит интересам человечества в целом. Будучи одним из шести членов, Суцкевер подчеркнул приверженность совета делу согласования целей OpenAI с высшим благом.

Смотрите также

2024-05-18 14:45