По словам соавтора Ethereum Виталика Бутерина, временная остановка глобальных вычислительных ресурсов может дать человечеству дополнительное время, если существует риск того, что продвинутая форма искусственного интеллекта может оказаться вредной.
В обновлении блога от 5 января Бутерин расширил свой пост от ноября 2023 года о «защитном акселерационизме» (d/acc). Он предупредил, что продвинутый искусственный интеллект потенциально может появиться всего за пять лет, и неясно, будут ли последствия благоприятными.
Виталик Бутерин предполагает, что временное ограничение производства крупномасштабного компьютерного оборудования может послужить способом замедления развития ИИ. Потенциально это может снизить глобальную вычислительную мощность на целых 99% примерно на 1–2 года, предоставив человечеству дополнительное время для подготовки и адаптации.
Передовая концепция искусственного интеллекта, называемая сверхинтеллектом, обычно понимается как сущность, которая последовательно превосходит человеческий интеллект во всех дисциплинах и областях знаний.
Значительное количество технологических лидеров и ученых выразили обеспокоенность по поводу ИИ, о чем свидетельствует открытое письмо, написанное в марте 2023 года и подписанное более чем 2600 людьми. Они выразили обеспокоенность по поводу потенциальных опасностей, которые представляют собой общество и человечество из-за «глубоко укоренившихся рисков», связанных с его развитием.
Однако Бутерин пояснил, что его предыдущая статья просто намекала на то, что нужно избегать опасных типов высшего интеллекта, и теперь намеревается обсудить потенциальные решения ситуации, когда ИИ представляет значительные риски.
Тем не менее, Бутерин выразил готовность выступать за «мягкую паузу» только при условии, что он убежден в необходимости «более решительных действий», таких как юридическая ответственность. Это означает, что лица, использующие, внедряющие или создающие ИИ, могут столкнуться с судебными исками, если их модели причинят вред.
Этот человек предположил, что планы временной остановки производства оборудования ИИ могут включать определение положения чипов ИИ и требование их регистрации, но вместо этого он предложил идею, согласно которой оборудование ИИ промышленного масштаба может быть оснащено чипом, который позволяет ему только сохранять функционирует, если он получает комплект из трех подписей от крупных международных организаций не реже одного раза в неделю.
Проще говоря, Бутерин заявил, что эти подписи будут работать на различных устройствах (при желании мы можем потребовать доказательство того, что они были размещены в блокчейне). Это означает, что после авторизации не будет реального способа позволить продолжать работу только одному устройству без одновременной авторизации всех остальных устройств.
Предложение Бутерина о развитии технологий делает упор на осторожной стратегии, а не на быстром и неограниченном прогрессе, предлагаемом акселерационизмом или эффективным акселерационизмом.
Глаз ИИ: Вокруг «религий» мемкоинов, созданных ИИ, растёт причудливый культ
Смотрите также
- Прогноз курса доллара к злотому на 2025
- Акции Озон Фармацевтика прогноз. Цена акций OZPH
- Что будет с Magic Eden: прогнозы цен на криптовалюту ME
- Акции Лента прогноз. Цена акций LENT
- Что будет с Dymension: прогнозы цен на криптовалюту DYM
- Что будет с Ethena: прогнозы цен на криптовалюту ENA
- Анализ цен 1/1: BTC, ETH, XRP, BNB, SOL, DOGE, ADA, AVAX, LINK, TON
- Celsius подаст апелляцию на постановление, отклоняющее иск против FTX на сумму 444 миллиона долларов
- Компания по криптовалютным платежам MoonPay получила одобрение MiCA в Нидерландах
- Что будет с Hedera: прогнозы цен на криптовалюту HBAR
2025-01-06 06:07