Илон Маск и множество экспертов предостерегают от неконтролируемого развития искусственного интеллекта.

03.04.2023

На сайте некоммерческой организации Институт Будущего Жизни (FLI) опубликовано письмо  Илона Маска и еще более 1000 экспертов в области вычислительных систем, в котором они призывают не спешить с безоглядным развитием систем искусственного интеллекта. Интересно, что в ответ Билл Гейтс выступил против этого моратория, считая, что стоит сосредоточиться на том, как лучше всего использовать разработки в области искусственного интеллекта, при этом определив области риска. Предлагаем ознакомиться с содержанием исходного письма ИТ-экспертов

Системы искусственного интеллекта (ИИ) с «умственными способностями», сопоставимыми с человеческими, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования [1]. Это признали ведущие лаборатории искусственного интеллекта [2]. Как указано в широко одобренных "Принципах работы с ИИ", разработанных на конференции в Асиломаре в 2017 году, продвинутый ИИ может представлять собой глубокое изменение истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, прогнозировать или надежно контролировать.

Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными в решении общих задач [3], и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, что приносят удовлетворение? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти численность, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть делегированы неизбранным техническим лидерам. Мощные системы ИИ должны разрабатываться только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми. Эта уверенность должна быть хорошо обоснована и увеличиваться с учетом масштабов потенциальных эффектов системы. В недавнем заявлении OpenAI об искусственном общем интеллекте говорится, что «в какой-то момент может быть важно получить независимую проверку, прежде чем начинать обучать будущие системы, и для самых передовых усилий договориться об ограничении темпов роста вычислений, используемых для создания новых моделей». Мы согласны. Этот момент настал сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть публичной и поддающейся проверке и охватывать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны обеспечивать, чтобы системы, придерживающиеся их, были безопасными вне разумных сомнений [4]. Это не означает паузу в развитии ИИ в целом, а просто отход от опасной гонки к все более крупным непредсказуемым моделям черного ящика с возникающими возможностями.

Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать сегодняшние мощные, современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны, как минимум, включать: новые и дееспособные регулирующие органы, занимающиеся ИИ; надзор и отслеживание высокопроизводительных систем ИИ и больших пулов вычислительных возможностей; системы верификации происхождения и водяных знаков, помогающие отличить реальное от синтетического и отслеживать уязвимости системы; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления драматических экономических и политических потрясений (особенно для демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Преуспев в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», в котором мы пожинаем плоды, проектируем эти системы на явную выгоду для всех и даем обществу шанс адаптироваться. Общество сделало паузу в других технологиях с потенциально катастрофическими последствиями для общества [5]. Мы можем сделать так и в этой области. Давайте наслаждаться долгим летом ИИ, а не спешить неподготовленными к осени. 

[1] Bender, E. M., Gebru, T., McMillan-Major, A., &Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., &Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

 

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

 

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

 

[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

 

[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

 

Оригинал документа: Pause Giant AI Experiments: An Open Letter - Future of Life Institute