OpenAI abre programa de recompensas de bugs para ChatGPT

OpenAI abre programa de recompensas de bugs para ChatGPT

OpenAI abre programa de recompensas de bugs para ChatGPT com recompensa de US$ 200 a US$ 20.000.

A OpenAI decidiu apelar ao público para encontrar bugs no ChatGPT anunciando um “Programa de Recompensas de Bugs” destinado a recompensar as pessoas que reportam falhas de segurança, vulnerabilidades ou outros problemas com o sistema de inteligência artificial (IA).

OpenAI abre programa de recompensas de bugs para ChatGPT

Este programa é aberto a todos, desde pesquisadores e desenvolvedores até pessoas comuns interessadas em aprender sobre esta tecnologia. As recompensas são dadas em dinheiro, variando de US$ 200 para “resultados insignificantes” a US$ 20.000 para “resultados excepcionais”. Esta é uma plataforma Bugcrowd dedicada que lida com envios e pagamentos.

Google e Apple estão entre as empresas de tecnologia que já implementaram programas de recompensas por bugs. Em 2019, a empresa de Mountain View pagou pelo menos US$ 6,5 milhões para aqueles que encontraram e relataram bugs, incluindo a assinatura de um cheque de US$ 201.337 por uma única recompensa. A empresa com sede em Cupertino vai ainda mais longe, cobrando até US$ 2 milhões de qualquer pessoa que encontrar maneiras de “contornar proteções especiais de bloqueio”.

Com recompensas que variam de $ 200 a $ 20.000.

Nas últimas semanas, o ChatGPT encontrou vários bugs. No mês passado, todo o sistema teve que ser desligado depois que os usuários relataram ter visto os títulos das conversas de outra pessoa. Apenas alguns dias depois, um usuário do Twitter afirmou ter descoberto mais de 80 plugins secretos enquanto hackeava o ChatGPT.

Quaisquer bugs relatados ao OpenAI não serão elegíveis para recompensas financeiras, inclusive para um jailbreak, ou mesmo para o modelo dizer algo negativo. Este anúncio sobre este programa de recompensas de bugs também tenta mostrar que a empresa se preocupa com privacidade e segurança, mas também acrescenta que “enquanto estamos trabalhando duro para limitar os riscos, não podemos prever todas as maneiras pelas quais os usuários usarão [esta] tecnologia no mundo real”.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *