Desde el boom de la inteligencia artificial con OpenAI, muchos han tenido grandes expectativas, mientras que otros mucho temor ante los posibles riesgos de esta. Por este motivo, la compañía ha anunciado la creación de un nuevo equipo para evaluar los potenciales peligros de la IA.
Si bien, la inteligencia artificial se usa para varios beneficios, también puede traer grandes consecuencias. Es así cómo OpenAI analizará, monitoreará y predecirá diversos escenarios respecto al mal uso de estos modelos inteligentes. Así que todos aquellos interesados en alertar algún riesgo, pueden enviar estudios relacionados con los temas expuestos e incluso podrían obtener un premio de $25,000 dólares y un puesto de trabajo en el equipo Preparedness.
«El equipo ayudará a rastrear, evaluar, pronosticar y proteger contra riesgos catastróficos que abarcan múltiples categorías, entre ellas: Persuasión individualizada, la seguridad cibernética, amenazas químicas, biológicas, radiológicas y nucleares (QBRN), Replicación y adaptación autónomas (ARA)».
En este sentido, algunos de los riesgos más latentes están relacionados con ciberataques hasta el uso de armas de destrucción masiva. Recordemos que a comienzos de este año, el CEO de OpenAI, Sam Altman, comparó a ChatGPT con una bomba nuclear… Así que siempre ha sido una constante el tema sobre lo peligroso que puede ser la IA.