«Фактически создаём конкурента человечеству» — британский учёный осудил власти за излишне мягкий подход к угрозе ИИ

14.05.2023, 20:44, Новости дня
  Подписаться на Telegram-канал
  Подписаться в Google News
  Поддержать в Patreon

Правительство Великобритании делает недостаточно, чтобы предотвратить появление сверхразумного искусственного интеллекта, заявил в интервью The Times профессор компьютерных наук и видный специалист в области изучения ИИ Стюарт Рассел. По его словам, существует большая вероятность того, что безконтрольная разработка подобных систем обернётся катастрофой для человечества.


AP

Британское правительство делает недостаточно, чтобы предотвратить риск уничтожения человечества сверхразумной машиной. Такое мнение в интервью The Times высказал один из «крёстных отцов» искусственного интеллекта профессор Стюарт Рассел, консультировавший Даунинг-стрит и Белый дом.

По признанию эксперта, его разочаровало то, что министры выступили за мягкий поход в регулирования разработки ИИ. Даже несмотря на вывод чиновников, что продукты этой индустрии могут представлять экзистенциальную угрозу.

Вместе с Илоном Маском и соучредителем Apple Стивом Возняком Рассел недавно подписал открытое письмо. Его авторы предупреждали, что лаборатории искусственного интеллекта участвуют «в неконтролируемой гонке по разработке и развёртыванию всё более мощных цифровых умов, которые никто, даже их создатели, не могут понять, предсказать их поведение или надёжно контролировать».

По словам профессора, возможности ChatGPT — чат-бота, который способен сдавать экзамены, писать компьютерный код и бегло, хотя и не всегда точно, выдавать тексты на заданную тему за считанные секунды — превзошли его ожидания. Учитывая темпы прогресса, пора «перевести дух» и подумать о том, какие средства контроля необходимы, чтобы предотвратить появление неуправляемого ИИ.

«Мы добились прогресса, даже не ожидая этого», — заявил Рассел. Он добавил, что вполне возможно, что система, подобная ChatGPT, может стать частью сверхразумной машины, которая будет сопротивляться любым попыткам ею управлять.

«Как сохранить власть над сущностями, которые сильнее вас, навсегда? Если у вас нет ответа, прекратите исследование. Вот и всё. Ставки не могут быть выше: если мы не контролируем нашу собственную цивилизацию,  то лишаемся права голоса о нашем будущем существовании»,  — подчеркнул эксперт.

В этом году он оказался в числе тех, к кому правительство Великобритании обратилось за консультациями по этому вопросу. Представители Министерства иностранных дел опросили множество специалистов и пришли к выводу, что «потеря контроля над мощным ИИ  вероятный и чрезвычайно важный исход».

«И после этого правительство выступило с регулирующим подходом, который гласит: «Здесь не на что смотреть. Продолжайте в том же духе. Мы будем приветствовать индустрию искусственного интеллекта, как если бы речь шла о производстве автомобилей или что-то в этом роде», — отметил Рассел.

По его мнению, на позицию министров, которые решили не вводить слишком жёсткие меры в отношении разработки ИИ, чтобы «не задушить инновации», повлияла технологическая отрасль. Она потратила миллиарды долларов, чтобы внушить законодателям в разных уголках мира, подобную мысль.

По словам профессора, его часто спрашивают о том, когда именно появится так называемый универсальный искусственный интеллект (УИИ) — система, способная выполнять любую интеллектуальную задачу, которую может выполнить человек. До относительно недавнего времени он думал, что до такого важного события ещё несколько десятков лет. Но теперь он в этом не уверен.

На его взгляд, создание УИИ, которое он сравнил с появлением превосходящей человечество инопланетной цивилизации, потенциально может произойти в течение десяти лет. Это будет самое значительное событие в истории человечества. И если правительства не начнут гораздо более энергично контролировать исследования в области ИИ, то они могут стать последними, опасается эксперт.

Один риск связан с тем, что перед мощным ИИ ставится задача, а затем выбирается стратегия, которая достигает цели, но имеет непредвиденные побочные эффекты, способные погубить человечество. Например, искусственный интеллект могут попросить решить проблему изменения климата, и он придёт к выводу, что лучший способ достичь этого — избавить Землю от людей, предположил Рассел.

По его мнению, чтобы избежать подобных результатов, исследователям ИИ необходимо следовать трём принципам. Единственной целью искусственного интеллекта должно быть максимальное понимание человеческих целей. Он должен оставаться неуверенным в том, что они собой представляют, и задавать наводящие вопросы. И он должен попытаться понять, каковы эти цели, наблюдая за поведением людей.

Однако создание систем, отвечающих этим критериям, потребует отказа от большей части того, что способствовало недавнему бурному прогрессу. «Я думаю, что мы ошиблись в самом начале, когда оказались настолько увлечены идеей понимания и создания интеллекта, что не думали о том, для чего этот интеллект будет нужен, — заявил Рассел. — Если вы не ставите перед ним цель приносить пользу людям, то фактически создаёте конкурента — и очевидно, что поступать так было бы глупо».

Одна из проблем, по его словам, заключалась в том, что создаваемые ИИ отражают аспекты человеческого характера. Большие языковые модели, к которым относится ChatGPT, получают огромное количество текста, взятого из интернета. Благодаря этому он учится составлять предложения, предсказывая, какое слово должно быть следующим в любом заданном контексте.

Как именно работают эти системы, остаётся загадкой. «Их вообще не понимают… Вы берёте набор данных для обучения в размере 30 триллионов слов и просто надеетесь на лучшее. Объём планирования в этом случае минимален», — отметил Рассел.

По его словам, большие языковые модели стали возможны только потому, что интернет превратился в огромное хранилище текстов о поведении людей. Это позволяет лабораториям искусственного интеллекта создавать системы, имитирующие человеческие свойства. Но профессор серьёзно сомневается в разумности такого подхода.

«Если вы учите его (ИИ. — ИноТВ) подражать человеческому поведению, то, по сути, вы учите его ставить человеческие цели и преследовать их. А человеческие цели включают в себя самые разные вещи, например: «Я хочу достичь высокого политического поста; я хочу быть богатым; я хочу, чтобы ты вышла за меня замуж». Можно только представить, какой катастрофой стало бы появление действительно эффективных систем, которые преследовали бы такие цели», —  отметил Рассел, посетовав на то, что мы не располагаем набором данных, которые исходили только о «бескорыстных сущностей, ведущих себя благодетельно по отношению к другим».

В то же время эксперт признал, что некоторые политики начинают осознавать опасность сверхразумного ИИ. «Европейцы призывают провести экстренный глобальный саммит. Китай фактически запрещает большие языковые модели. Белый дом созывает всех руководителей [технологической отрасли] на экстренное совещание. Я хочу сказать, что что-то подобное можно было себе представить, если бы мы обнаружили настоящую инопланетную цивилизацию», — заявил Рассел.

Эта публикация создана на основе переводов в российских СМИ, так что может быть недостоверной




Смотреть комментарииКомментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

ЧИТАЙТЕ ТАКЖЕ

16.06 / Генштаб ВСУ – данные о потерях армии РФ на 1209-й день войны

11.06 / В РФ Леонида Волкова заочно приговорили к 18 годам лишения свободы

11.06 / Рябков – украинские удары не нанесли ощутимого ущерба российскому ядерному потенциалу

11.06 / Госдеп США отмежевался от посла в Израиле, усомнившегося в создании “государства Палестина”

11.06 / Верховный суд Аргентины оставил в силе тюремный приговор экс-президенту Киршнер

11.06 / Мэр Лос-Анджелеса объявила о введении комендантского часа в центре города

11.06 / Грета Тунберг вернулась в Швецию после депортации из Израиля

11.06 / Госсекретарь США призывал отменить санкции против Смотрича и Бен-Гвира – “Помните, кто враг”

10.06 / После четырех дней поисков на Крите обнаружено тело пропавшей израильтянки

10.06 / “Реконструкция” резни 7 октября в Брюсселе – мэр обвинил организаторов в нарушении договора

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal - rybinskonline@gmail.com; Payeer: P1124519143; WebMoney – T323003638440, X100503068090, Z399334682366

18+ © 2002-2025 РЫБИНСКonLine: Все, что Вы хотели знать...

Яндекс.Метрика