OpenAI открывает программу вознаграждения за ошибки для ChatGPT

OpenAI открывает программу вознаграждения за ошибки для ChatGPT с вознаграждением в размере от 200 до 20 000 долларов.

OpenAI решила обратиться к общественности с просьбой найти ошибки в ChatGPT, объявив «Программу вознаграждения за ошибки» , направленную на вознаграждение людей, которые сообщают о недостатках безопасности, уязвимостях или других проблемах с системой искусственного интеллекта (IA).

OpenAI открывает программу вознаграждения за ошибки для ChatGPT

Эта программа открыта для всех, от исследователей и разработчиков до обычных людей, которым интересно узнать об этой технологии. Награды выдаются наличными в размере от 200 долларов за «незначительные результаты» до 20 000 долларов за «исключительные результаты». Это специальная платформа Bugcrowd, которая обрабатывает заявки и платежи.

Google и Apple входят в число технологических компаний, которые уже внедрили программы вознаграждения за обнаружение ошибок. В 2019 году фирма из Маунтин-Вью выплатила не менее 6,5 миллионов долларов тем, кто обнаружил и сообщил об ошибках, вплоть до подписания чека на 201 337 долларов за одно вознаграждение. Компания из Купертино идет еще дальше, взимая до 2 миллионов долларов с каждого, кто находит способы «обойти специальные средства защиты от блокировки».

Вознаграждения варьируются от 200 до 20 000 долларов.

За последние несколько недель ChatGPT столкнулся с рядом ошибок. В прошлом месяце всю систему пришлось отключить после того, как пользователи сообщили, что видели заголовки чужих разговоров. Всего несколько дней спустя пользователь Twitter заявил, что обнаружил более 80 секретных плагинов при взломе ChatGPT.

Любые ошибки, о которых сообщается в OpenAI, не будут иметь права на получение финансового вознаграждения, в том числе на джейлбрейк или даже на то, чтобы модель сказала что-то негативное. Это объявление об этой программе вознаграждения за обнаружение ошибок также пытается показать, что компания заботится о конфиденциальности и безопасности, но также добавляет, что «хотя мы усердно работаем над ограничением рисков, мы не можем предсказать все способы, чьи пользователи будут использовать [эту] технологию в реальном мире». Время покажет, принесет ли эта инициатива плоды.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *