OpenAI представила две почти открытые модели для систем безопасности

OpenAI представила две рассуждающие модели искусственного интеллекта, предназначенные для обнаружения различных угроз безопасности на интернет-платформах. Они доступны по лицензии с открытыми весами.

OpenAI представила две почти открытые модели для систем безопасности

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

OpenAI представила две почти открытые модели для систем безопасности

Пять причин полюбить HONOR Pad V9

OpenAI представила две почти открытые модели для систем безопасности

Почему ИИ никак не сесть на безматричную диету

OpenAI представила две почти открытые модели для систем безопасности

Пять причин полюбить HONOR X8c

OpenAI представила две почти открытые модели для систем безопасности

Фитнес-браслет HUAWEI Band 10: настоящий металл

OpenAI представила две почти открытые модели для систем безопасности

Пять причин полюбить HONOR Magic7 Pro

OpenAI представила две почти открытые модели для систем безопасности

HUAWEI FreeArc: вероятно, самые удобные TWS-наушники

OpenAI представила две почти открытые модели для систем безопасности

Обзор умных часов HUAWEI WATCH 5: часы юбилейные

OpenAI представила две почти открытые модели для систем безопасности

Новые открытые модели OpenAI получили названия gpt-oss-safeguard-120b и gpt-oss-safeguard-20b — последние показатели свидетельствуют о числе параметров. Это адаптированные версии анонсированных в августе бесплатных gpt-oss. Новые варианты также доступны с открытыми весами, то есть предлагают пользователям прозрачность и контроль, но это не модели с полностью открытым исходным кодом.

Организации могут настраивать их в соответствии со своими требованиями политики — модели выводят цепочки рассуждений, а значит, у разработчиков будет представление о том, как они приходят к тому или иному результату. Так, на сайте с обзорами модели серии gpt-oss-safeguard помогут для фильтрации отзывов, которые они сочтут поддельными; аналогичным образом на игровом форуме они смогут автоматически удалять сообщения о читерских схемах.

OpenAI разработала их совместно с Discord, SafetyKit и организацией ROOST, которая специализируется на инфраструктуре безопасности для систем ИИ. Модели доступны в формате предварительных версий для исследователей — OpenAI хочет собрать отзывы экспертов.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *