Технологии и бизнес
Важно: Известные лидеры требуют заморозить создание сверхразума ради безопасности человечества
OpenSky Team
29 октября 2025 г.
37 просмотров

Узнайте подробности о важных событиях в Казахстане. Возняк, Брэнсон и другие требуют запретить сверхразум до доказательства его безопасности....
Сотни известных ученых, предпринимателей и общественных деятелей – от Стива Возняка до Ричарда Брэнсона – подписали открытое письмо с требованием приостановить разработку искусственного интеллекта, способного превзойти человека, до тех пор, пока не будет доказана его безопасность, пишет digitalbusiness.kz.
Документ под названием Statement on Superintelligence подготовила организация Future of Life Institute (FLI).
Среди подписантов – «крестные отцы ИИ» Джеффри Хинтон и Йошуа Бенджио, сооснователь Apple Стив Возняк, основатель Virgin Group Ричард Брэнсон, экс-советник Дональда Трампа Стив Бэннон и бывший глава Объединенного комитета начальников штабов США Майк Маллен.
Поддержку инициативе выразили также герцог и герцогиня Сассекские – Гарри и Меган.
Не подписали письмо главы крупнейших ИИ-компаний – Сэм Альтман (OpenAI), Мустафа Сулейман (Microsoft/DeepMind), Дарио Амодеи (Anthropic), а также Илон Маск, который, впрочем, ранее поддерживал аналогичный призыв FLI в 2023 году.
По данным опроса FLI, лишь 5% американцев поддерживают быструю и нерегулируемую разработку ИИ.
При этом 73% выступают за строгие меры регулирования, а 64% – за полный запрет создания сверхразума, пока не будет доказана его безопасность и управляемость.
Авторы письма предупреждают, что неконтролируемое развитие ИИ может: