Los líderes y expertos tecnológicos piden un descanso de 6 meses de la experimentación con IA

Los líderes y expertos tecnológicos piden un descanso de 6 meses de la experimentación con IA

Los líderes y expertos tecnológicos piden un descanso de 6 meses de la experimentación con IA. Están preocupados por los (demasiado) turbulentos acontecimientos en esta zona y la falta de seguridad en los alrededores.

La carta abierta, firmada por líderes tecnológicos y otros investigadores de IA de alto perfil, pide a los laboratorios y empresas de IA que » suspendan inmediatamente » su trabajo. A los signatarios, incluidos Steve Wozniak y Elon Musk, les gustaría tomarse un descanso de al menos seis meses de la producción de tecnologías basadas en GPT-4 para aprovechar los sistemas de inteligencia artificial existentes y permitir que las personas se adapten y se aseguren de que puedan beneficiar a todos. La carta agrega que el pensamiento y la previsión son esenciales para asegurar los sistemas de IA.

Los líderes y expertos tecnológicos piden un descanso de 6 meses de la experimentación con IA

La referencia a GPT-4, un modelo de OpenAI que puede responder con texto a mensajes escritos o visuales, surge cuando las empresas ya están tratando de desarrollar sistemas de chat sofisticados utilizando esta tecnología. Microsoft, por ejemplo, confirmó recientemente que ha rediseñado su motor de búsqueda Bing para aprovechar el modelo GPT-4. Google, por su parte, ha lanzado recientemente Bard, su propio sistema de inteligencia artificial generativa basado en LaMDA. Este problema ha existido durante mucho tiempo, pero la carrera en la que se encuentran las empresas de tecnología hoy en día parece ser aún más preocupante.

“Desafortunadamente, este nivel de planificación y gestión no existe, los laboratorios de IA están trabajando arduamente para desarrollar e implementar cerebros virtuales que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de ninguna manera. Seguro”, podemos leer en el especial.

Están preocupados por los desarrollos (demasiado) rápidos en el área y la inseguridad alrededor

Esta carta fue publicada por Future of Life Institute (FLI), una organización comprometida con la reducción de los riesgos y el mal uso de las nuevas tecnologías. Anteriormente, Elon Musk donó 10 millones de dólares a la FLI para estudiar la seguridad de la IA. Además de Steve Wozniak y este último, hay grandes nombres en el campo de la IA, como el presidente del Centro de IA y Política Digital, Mark Rothenberg, el físico del MIT y presidente de FLI, Max Tegmark, y el escritor Yuval Noah Harari. Este último también escribió un artículo de opinión en el New York Times la semana pasada sobre los riesgos que plantea la IA con los fundadores del Center for Humane Technology y otros signatarios, Tristan Harris y Aza Raskin.

Esta llamada parece un seguimiento lógico de una encuesta de 2022 de más de 700 investigadores de aprendizaje automático, que encontró que casi la mitad de los participantes dijeron que había un 10 por ciento de posibilidades de que las consecuencias de la IA fueran «extremadamente malas» hasta la extinción de la humanidad. Cuando se les preguntó acerca de la seguridad de la investigación en IA, el 68 % de los investigadores respondió que aún queda mucho por hacer.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *