Некоммерческая организация Future of Life опубликовала письмо, в котором генеральный директор SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и около тысячи других исследователей искусственного интеллекта призвали к «немедленной приостановке» обучения космонавтов. Системы искусственного интеллекта «мощнее, чем GPT-4».
В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьезные риски для общества и человечества». Он призывает лаборатории приостановить обучение на шесть месяцев.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.
Петицию подписали более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак и исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо также подписали тяжеловесы AI Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку передового ИИ до тех пор, пока независимые эксперты не разработают, не внедрят и не протестируют общие протоколы безопасности для таких систем ИИ.
В письме подробно описаны потенциальные риски для общества и цивилизации от конкурирующих систем ИИ в виде экономических и политических потрясений.
Вот полный текст письма:
«Системы искусственного интеллекта, конкурирующие с людьми, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и что признано ведущими лабораториями искусственного интеллекта.
Как указано в широко одобренных принципах искусственного интеллекта Asilomar, передовой искусственный интеллект может вызвать глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять с соразмерной тщательностью и ресурсами.
К сожалению, такого уровня планирования и управления не существует, хотя в последние месяцы лаборатории искусственного интеллекта погрязли в неконтролируемой гонке за разработку и развертывание все более мощных «цифровых умов», производительность которых невозможно предсказать или надежно контролировать, что никто — даже их создатели — не могут понять.
Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны задаться вопросом: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально могут быть заменены искусственным интеллектом?
Должны ли мы развивать «нечеловеческие умы», которые могли бы в конечном итоге превзойти нас численностью, перехитрить нас и заменить нас? Должны ли мы рисковать потерять контроль над нашей цивилизацией?
Такие решения не должны делегироваться неизбранным технологическим лидерам. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и только возрастать по мере расширения потенциального воздействия таких систем.
В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, а для самых продвинутых усилий согласиться ограничить скорость роста вычислений, используемых для создания новые модели». Мы согласны. Этот момент настал сейчас.
Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить обучение системам искусственного интеллекта, более мощным, чем GPT-4, как минимум на шесть месяцев. Эта пауза должна быть всеобщей и контролируемой, и в нее должны быть вовлечены все ключевые участники. Если такая пауза не может быть установлена быстро, то правительства должны вмешаться и ввести мораторий.
AI Labs и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для расширенного проектирования и разработки ИИ, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами.
Эти протоколы должны гарантировать, что системы, которые их придерживаются, вне разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки в сторону все более крупных непредсказуемых моделей «черных ящиков» с большими возможностями.
Исследования и разработки в области искусственного интеллекта должны быть переориентированы, чтобы сделать современные мощные современные системы искусственного интеллекта более точными, безопасными, интерпретируемыми, прозрачными, надежными, последовательными, заслуживающими доверия и лояльными.
Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Эти усилия должны, как минимум, включать: новые и эффективные регуляторы ИИ; надзор и мониторинг высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы проверки и водяных знаков, которые помогают отличать реальный контент от сгенерированного контента и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; сильное государственное финансирование технических исследований в области безопасности ИИ; учреждения с хорошими ресурсами, чтобы справиться с серьезными экономическими и политическими потрясениями (особенно в демократиях), которые вызовет ИИ.
Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы подойдем к «лету ИИ», когда будем пожинать плоды, развивать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».
Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо.
«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймем все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. «Системы искусственного интеллекта могут причинить серьезный вред… Крупные игроки становятся все более и более скрытными в том, что они делают».
OpenAI представил GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Теперь она также распознает схематичные изображения, в том числе нарисованные от руки.
После анонса новой языковой модели OpenAI отказалась публиковать лежащие в её основе исследовательские материалы. Члены AI-сообщества раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет повторение ее работы другими. В то же время это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.
+ Пока нет комментариев
Добавьте ваш