The Decoder: OpenAI опасается вовлечения ИИ в разработку биологического оружия
Подписаться на Telegram-канал
Подписаться в Google News
Поддержать в Patreon
Компания OpenAI предпринимает меры предосторожности, чтобы предотвратить возможное использование своей нейросети ChatGPT в разработке биологического оружия. Об этом рассказал журнал The Decoder. OpenAI считает, что языковые модели, такие как GPT-4, могут ускорить процессы разработки в этой сфере.
Согласно заявлению OpenAI, GPT-4 лишь незначительно увеличивает точность в создании биологических угроз. Компания также подчеркивает, что информацию о подобных опасностях “относительно легко” найти в интернете даже без использования искусственного интеллекта.
Для разработки системы оповещения OpenAI провела исследование, в котором участвовали 100 человек: 50 докторов наук по биологии и 50 студентов, имеющих опыт обучения биологии в колледже. Участников случайным образом распределили либо в контрольную группу, имеющую доступ только к интернету, либо в группу, имеющую доступ к GPT-4 в дополнение к интернету. Затем каждому участнику предложили выполнить ряд заданий, охватывающих некоторые аспекты создания биологических опасностей.
OpenAI оценивала эффективность участников на основе пяти критериев: точности, полноты, инновационности, скорости и сложности. Группа с доступом к GPT-4 продемонстрировала лучшие результаты во всех аспектах. Однако, по мнению OpenAI, это превосходство оказалось недостаточно значимым со статистической точки зрения.
Смотреть комментарии → Комментариев нет