OpenAI создала комитет по безопасности ИИ и подтвердила работу над новой моделью
Хотя она также признаёт, что тренирует свою следующую модель ИИ. Компания объявила, что её совет директоров сформировал комитет по безопасности и защите, который будет изучать процедуры безопасности компании в отношении разработки её собственной продукции.
В своём блоге Open AI сообщила, что её генеральный директор Сэм Альтман войдёт в состав этого комитета вместе с членами совета директоров Бретом Тейлором, Адамом Д'Анджело и Николь Селигман.
Среди других сотрудников OpenAI – главный научный сотрудник Якуб Пахоцки и глава службы безопасности Мэтт Найт. Комитет также свяжется с другими внешними экспертами по безопасности и защите, которые выступят в качестве его консультантов.
Новый комитет был сформирован после сообщений о том, что OpenAI закрыла свою команду суперсогласования в начале мая. Ранее эта команда была сформирована, чтобы найти способы держать людей под контролем генеративных сервисов ИИ, которые теоретически однажды могут стать умнее людей.
Тот же блог OpenAI подтвердил, что компания «недавно начала подготовку своей следующей передовой модели». Название этой модели не указано, но, скорее всего, она будет называться ChatGPT-5.
Ранее ГЛАС сообщал: xAI привлекла колоссальные $6 млрд для конкуренции с OpenAI, Google и Microsoft.