La Unión Europea ha aprobado la nueva Ley de Inteligencia Artificial a nivel mundial para vigilar de forma permanente a los desarrolladores de IA y el uso de estas tecnologías.
De esta manera, se quiere garantizar la seguridad de los ciudadanos europeos y así confiar en las IA que usan día a día. Es así, cómo esta nueva ley propone cuatro niveles siendo los siguientes:
- Riesgo mínimo o nulo: Uso libre de IA como la integración de sistemas de filtrado de spam para el correo electrónico o videojuegos.
- Riesgo limitado: Transparencia en el uso de la IA como los chatbots que deben decir que son chatbots y no humanos. Asimismo, se incluye contenido IAG que debe ser identificable con etiquetas en textos e imágenes de «generado por IA». Esto también se aplicaría a los deepfakes de audio y video.
- Alto riesgo: Estas IA tienen obligaciones estrictas antes de ser comercializadas como un registro de actividad para garantizar los resultados, una documentación detallada sobre el sistema, medidas de supervisión humana y un gran nivel de seguridad y precisión. Sin embargo, puede haber excepciones en casos de extrema urgencia, como la localización de un niño desaparecido, amenaza terrorista o sospechoso de delito grave.
- Riesgos inaceptables: Son aquellos sistemas IA que de ninguna forma pueden entrar a la Unión Europea. Estos son una clara amenaza a la seguridad, los medios de vida y derechos de las personas que puedan fomentar comportamiento peligroso.
Sin duda, la Unión Europea es la sociedad de países más interesados en regular los medios tecnológicos e inteligencia artificial para beneficiar sus correspondientes países y así tener una mejor ciberseguridad.