Защищавшее человечество от ИИ подразделение OpenAI проработало менее года
Совсем недавно стало известно, что Илья Суцкевер, заместитель главы научных исследований в OpenAI, покинул компанию. Это решение привело к распаду команды, отвечающей за управление рисками, связанными с искусственным интеллектом. Данная группа была создана с целью защиты человечества от потенциальных угроз, связанных с развитием ИИ, но просуществовала менее года.
Илья Суцкевер давно выражал беспокойство по поводу подобных рисков. Несмотря на первоначальные планы выделить до 20% вычислительных ресурсов компании на минимизацию рисков, связанных с ИИ, после его ухода члены команды были перераспределены на другие должности внутри компании.
Также известно, что Ян Лейке, ранее возглавлявший эту команду вместе с Суцкевером, также покинул OpenAI. Он высказал недовольство “культурой безопасности” в компании, заявив, что она уступила место разработке продуктов. Генеральный директор OpenAI Сэм Альтман выразил сожаление по поводу ухода Лейке и отметил, что у компании возникли разногласия по приоритетам.
Лейке подчеркнул важность безопасности в разработке генеративного ИИ и заявил, что создание машин, превосходящих человека, представляет собой опасную затею.
Этот кризис в OpenAI произошел в контексте начала преподавания искусственного интеллекта студентам в России, что отражает актуальность проблемы и необходимость разработки соответствующих стратегий безопасности в сфере ИИ.
Смотреть комментарии → Комментариев нет