OpenAI создала комитет по безопасности ИИ и подтвердила работу над новой моделью

Новости
Алексей Гречишкин
автор статьи
28 мая - ГЛАС. Компания OpenAI заявила о том, что прилагает новые усилия для обеспечения безопасности использования своих генеративных систем искусственного интеллекта (ИИ)

Хотя она также признаёт, что тренирует свою следующую модель ИИ. Компания объявила, что её совет директоров сформировал комитет по безопасности и защите, который будет изучать процедуры безопасности компании в отношении разработки её собственной продукции.

В своём блоге Open AI сообщила, что её генеральный директор Сэм Альтман войдёт в состав этого комитета вместе с членами совета директоров Бретом Тейлором, Адамом Д'Анджело и Николь Селигман.

Среди других сотрудников OpenAI – главный научный сотрудник Якуб Пахоцки и глава службы безопасности Мэтт Найт. Комитет также свяжется с другими внешними экспертами по безопасности и защите, которые выступят в качестве его консультантов.

Новый комитет был сформирован после сообщений о том, что OpenAI закрыла свою команду суперсогласования в начале мая. Ранее эта команда была сформирована, чтобы найти способы держать людей под контролем генеративных сервисов ИИ, которые теоретически однажды могут стать умнее людей.

Тот же блог OpenAI подтвердил, что компания «недавно начала подготовку своей следующей передовой модели». Название этой модели не указано, но, скорее всего, она будет называться ChatGPT-5.

Ранее ГЛАС сообщал: xAI привлекла колоссальные $6 млрд для конкуренции с OpenAI, Google и Microsoft.

Главный редактор: Богачков С.Г.
e-mail: s.sha39@yandex.ru, 18+
Сетевое издание «ГЛАС» зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) 25 марта 2019 года. Свидетельство о регистрации ЭЛ № ФС77 - 75283. Учредитель: Богачков Сергей Григорьевич. Телефон редакции: +79611528219.
2024, ГЛАС.RU. Использование материалов сайта разрешается только с установкой активной гиперссылки на glas.ru