OpenAI спровоцировал гонку вооружений, жертвой которой стала наша безопасность

Самые главные криптоновости в Телеграм-канале CryptoMoon, присоединяйтесь!👇

Cryptomoon Telegram


После дебюта ChatGPT в конце 2022 года и его значительного вклада в популяризацию искусственного интеллекта (ИИ) к нему возрос интерес со стороны различных организаций, включая технологические и нетехнологические компании, существующие предприятия и новые стартапы. Все они выпустили ИИ-помощников и продемонстрировали инновационные приложения или усовершенствования, чтобы привлечь внимание общественности.

Уверенность технологических лидеров в том, что ИИ может справиться со всеми задачами и выполнять множество ролей, привела к тому, что помощники ИИ берут на себя различные функции в нашей жизни. Они стали доверенными советниками и консультантами в бизнесе и отношениях, предлагая рекомендации и поддержку. Кроме того, они действуют как терапевты, компаньоны и доверенные лица, внимательно слушая нашу личную информацию, секреты и мысли.

Компании, предлагающие услуги с использованием искусственного интеллекта, понимают конфиденциальный характер таких разговоров и гарантируют, что внедряют надежные меры безопасности для обеспечения безопасности наших данных. Но можем ли мы по-настоящему доверять их обещаниям?

ИИ-помощники — друг или враг?

Новое исследование, опубликованное в марте исследователями Университета Бер-Гуриона, показало, что наша конфиденциальная информация может оказаться под угрозой. Ученые разработали метод расшифровки ответов ИИ-помощника с поразительной точностью, минуя их шифрование. Этот метод использует конструктивный недостаток систем основных платформ, таких как Microsoft Copilot и ChatGPT-4 OpenAI, но Gemini от Google остается незатронутым.

Кроме того, исследование показало, что злоумышленник, разработавший средство для перехвата чата, например ChatGPT, может без особых дополнительных усилий применить этот метод к другим аналогичным платформам. Следовательно, этот инструмент может быть распространен среди хакеров и широко использоваться.

Ранее уже проводились расследования, выявлявшие уязвимости в процессе создания ИИ-помощников, включая ChatGPT. Результаты различных академических учреждений и Google DeepMind были опубликованы в конце 2023 года. Эти исследователи обнаружили, что, предоставляя конкретные подсказки, они могут заставить ChatGMT воспроизводить заученные части своих обучающих данных.

Исследователи успешно извлекли из ChatGPT точные отрывки из книг и стихов, ссылки на веб-страницы, отдельные идентификаторы пользователей, адреса биткойн-кошельков и сценарии кодирования.

Злоумышленники могут намеренно создавать вводящие в заблуждение подсказки или снабжать ботов ложными данными, чтобы манипулировать процессом обучения. Это может привести к включению в набор данных конфиденциальной личной и профессиональной информации.

Модели с открытым исходным кодом создают дополнительные проблемы безопасности. Например, исследование показало, что злоумышленник может манипулировать сервисом конвертации Hugging Face и получить контроль над любой представленной моделью. Последствия такого нарушения весьма серьезны. Злоумышленник может заменить целевую модель своей вредоносной, загрузить вредоносные модели в репозитории или даже получить доступ к частным репозиториям наборов данных.

Эти организации, включая Microsoft и Google, располагающие в общей сложности 905 моделями Hugging Face, которые были модифицированы с помощью службы конвертации, могли быть подвержены хакерским атакам и, возможно, уже были взломаны.

Ситуация может ухудшиться

Предоставление ИИ-помощникам более широких возможностей может быть заманчивым, но это также увеличивает риск стать объектом кибератак.

В прошлом году Билл Гейтс написал в своем блоге о будущей роли продвинутого искусственного интеллекта (ИИ). Он назвал этот ИИ «комплексным помощником» или «агентом», которому будет предоставлен доступ ко всем нашим личным и рабочим устройствам. Его функция будет заключаться в объединении и изучении данных, собранных с этих устройств, действуя для нас как эффективный и действенный помощник в управлении информацией и задачами.

Как написал Гейтс в блоге:

Агент сможет помочь вам во всех ваших делах, если вы этого захотите. Получив разрешение следить за вашими взаимодействиями в Интернете и реальными местоположениями, он разовьет глубокое понимание людей, мест и видов деятельности, которыми вы занимаетесь. Он получит ваши личные и рабочие отношения, хобби, предпочтения и график. Вы сами выбираете, как и когда он вмешается, чтобы помочь с чем-то или попросить вас принять решение.

Это не научная фантастика, и это может произойти раньше, чем мы думаем. Project 01, экосистема с открытым исходным кодом для устройств искусственного интеллекта, недавно запустила помощника искусственного интеллекта под названием 01 Light. «01 Light — это портативный голосовой интерфейс, который управляет вашим домашним компьютером», — написала компания на X. Он может видеть ваш экран, использовать ваши приложения и осваивать новые навыки».

OpenAI спровоцировал гонку вооружений, жертвой которой стала наша безопасность

Наличие личного помощника по искусственному интеллекту может быть весьма захватывающим. Однако крайне важно, чтобы проблемы безопасности решались оперативно. Разработчики должны тщательно проверять систему и код на наличие уязвимостей, чтобы предотвратить потенциальные атаки. Если этот агент станет жертвой злоумышленников, вся ваша жизнь может оказаться под угрозой — не только ваша информация, но и любые связанные с ним лица или организации.

Можем ли мы защитить себя?

С конца марта Палата представителей США ввела жесткие ограничения на использование Microsoft Copilot сотрудниками законодательных органов.

По словам главного административного директора Палаты представителей Кэтрин Шпиндор, приложение Microsoft Copilot было идентифицировано Управлением кибербезопасности как потенциальный риск, поскольку оно может непреднамеренно передавать данные Палаты представителей в неавторизованные облачные сервисы.

В начале апреля Совет по обзору кибербезопасности (CSRB) опубликовал отчет, в котором Microsoft обвиняется в серии упущений в безопасности, которые позволили китайским хакерам взломать учетные записи электронной почты американских правительственных чиновников летом 2023 года. Этих инцидентов можно было избежать, и их следует были предотвращены.

Согласно выводам отчета, текущие методы обеспечения безопасности Microsoft не соответствуют требованиям и требуют значительных улучшений, что также может повлиять на их продукт Copilot.

Несколько технологических компаний, таких как Apple, Amazon, Samsung и Spotify, а также финансовые учреждения, такие как JPMorgan, Citi и Goldman Sachs, ранее ограничили использование ИИ-помощников своими сотрудниками.

В прошлом году такие технологические гиганты, как OpenAI и Microsoft, взяли на себя обязательство разрабатывать и использовать этически обоснованный искусственный интеллект. Однако до сих пор каких-либо существенных шагов в этом направлении предпринято не было.

Принятие обязательств недостаточно; Вместо этого власти и лица, принимающие решения, нуждаются в конкретных действиях. Тем временем рекомендуется воздержаться от разглашения конфиденциальных личных или деловых данных.

Если мы все воздержимся от совместного использования ботов, мы можем увеличить наши шансы быть услышанными, вынуждая компании и авторов уделять приоритетное внимание нашей безопасности за счет улучшения необходимых функций безопасности.

Dr. Merav Ozair is a guest author for CryptoMoon and is developing and teaching emerging technologies courses at Wake Forest University and Cornell University. She was previously a FinTech professor at Rutgers Business School, where she taught courses on Web3 and related emerging technologies. She is a member of the academic advisory board at the International Association for Trusted Blockchain Applications (INATBA) and serves on the advisory board of EQM Indexes — Blockchain Index Committee. She is the founder of Emerging Technologies Mastery, a Web3 and AI end-to-end consultancy shop, and holds a PhD from Stern Business School at NYU.

Эта статья предназначена для общих информационных целей и не предназначена и не должна рассматриваться как юридическая или инвестиционная консультация. Взгляды, мысли и мнения, выраженные здесь, принадлежат только автору и не обязательно отражают или представляют взгляды и мнения CryptoMoon.

Смотрите также

2024-04-10 23:53