Искусственный интеллект – это новая «ядерная бомба»?

03.02.2025, 8:55, Разное
  Подписаться на Telegram-канал
  Подписаться в Google News
  Поддержать в Patreon

Известный философ и писатель Ник Бостром сравнил развитие искусственного интеллекта (ИИ) с созданием ядерной бомбы, заявив, что как только эта технология окажется в руках могущественных сил, она станет «неудержимой». Это тревожное предостережение было озвучено экспертом в области ИИ, который видит опасность в возможном захвате политическими силами, использующими ИИ для усиления своего контроля. Об этом пишет Daily Star.

Фото из открытых источников

Бостром, известный своими глубокими размышлениями о будущем человечества, сравнил современную индустрию ИИ с Манхэттенским проектом, программой, приведшей к созданию первой ядерной бомбы. Он отметил, что, как и в случае с физиками, которые начали исследовать ядерные реакции, ИИ-исследования могут быть вырваны из рук ученых и переданы в руки политиков и военных.

«Вы не можете просто остановить это», — сказал он. «И как только геополитические силы заинтересуются ИИ как ключом к стратегическому доминированию, роль интеллектуалов, таких как я, уйдет в прошлое – бразды правления возьмут более крупные силы».

Бостром предсказал, что ИИ будет использоваться в стратегических целях, и решения по его применению будут приниматься на самом высоком уровне, подобно тому, как это происходило с ядерными технологиями.

Философ также отметил, что ИИ скоро достигнет уровня искусственного общего интеллекта (AGI), что приведет к значительным изменениям на рынке труда. По его мнению, AGI сможет выполнять почти все задачи лучше людей, что приведет к массовой безработице и обесцениванию человеческого капитала.

«Все мы, особенно философы, окажемся вне игры» — сказал Бостром.

Однако, несмотря на мрачные прогнозы, Бостром выразил надежду на то, что при совместных усилиях человечество сможет направить развитие ИИ в позитивное русло. В качестве одного из возможных примеров позитивного использования ИИ он упомянул секс-ботов, которые могут изменить интимную жизнь людей.

На фоне этих размышлений, такие известные личности, как Илон Маск и Билл Гейтс, активно поддерживают и развивают теории и идеи ИИ, предложенные Бостромом. Они также предостерегают об опасностях, связанных с этой технологией, и призывают к ответственному подходу к ее разработке и внедрению.

В заключение, Ник Бостром подчеркнул, что будущее человечества в эпоху ИИ будет определяться тем, как мы справимся с этими вызовами и насколько сможем объединиться для совместного решения возникающих проблем.




Смотреть комментарииКомментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

ЧИТАЙТЕ ТАКЖЕ

16.06 / В Иране осудили Сталина за «руководящую и направляющую роль» в создании государства Израиль

16.06 / Саломе Зурабишвили обвинила Михаила Саакашвили в подготовке государственного переворота

15.06 / Маск объявил, что передал в Иран две тысячи терминалов Starlink

15.06 / «5-я статья авансом»: в НАТО заявили о готовности немедленно защитить Израиль от неспровоцированной агрессии Ирана

15.06 / Фонд Сороса выдвинул Нетаньяху на Нобелевскую премию мира

15.06 / Учёные не в силах объяснить, почему гранёный стакан Ельцина по ночам сам наполняется водкой

15.06 / Марсоход Perseverance сделал снимок, на котором отчётливо виден герб России

15.06 / Мнение: Немецкая армия предпочитает коренных немцев

14.06 / Германия объявила о немедленной передаче Израилю сотен ракет TAURUS

14.06 / Грета Тунберг организовала в Стокгольме акцию «Вперёд, Иран!»

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal - rybinskonline@gmail.com; Payeer: P1124519143; WebMoney – T323003638440, X100503068090, Z399334682366

18+ © 2002-2025 РЫБИНСКonLine: Все, что Вы хотели знать...

Яндекс.Метрика