Los sistemas de inteligencia artificial (IA) han impactado de forma transversal a la sociedad. Si bien, poseen un enorme potencial para incrementar el bienestar social su desarrollo debe ser orientado de forma ética y responsable. Por ello, el Gobierno envió hace algunas semanas un proyecto de ley al Congreso para regular los usos de esta tecnología en el país, teniendo como marco la promoción de innovación y el resguardo de los derechos fundamentales de las personas.

Es usual que el desarrollo científico y tecnológico coloque en jaque a las sociedades, ya que no disponen de legislación para regular su quehacer. Es así que la iniciativa, impulsada por el Ministerio de Ciencia y Tecnología, sitúa a Chile entre las primeras naciones preocupadas por legislar en esta materia.
En el texto legal se expresa que la IA puede contribuir a alcanzar un “futuro socialmente más justo y ecológico”; proporcionar ventajas competitivas a las empresas y a la economía nacional, ampliar el derecho a la educación y múltiples beneficios, sin embargo, también “puede dar lugar a nuevos riesgos o consecuencias negativas para las personas o la sociedad”.
Así, por ejemplo, en enero de 2023, un juez colombiano resolvió una acción de amparo constitucional basándose en las respuestas entregadas por una herramienta de inteligencia artificial, mientras que, en marzo, la Fiscalía anunció la implementación de un sistema de IA para crear patrones criminales a través de historiales delictivos.
Situaciones como las descritas, hacen necesaria la discusión legislativa. También otras relacionadas con el desarrollo de prácticas con el potencial de manipular; técnicas que aprovechan las vulnerabilidades de grupo o la utilización de datos personales sensibles para suplantar identidad o cometer otro tipo de fraudes.
“No es lo mismo un algoritmo destinado a influir las emociones que uno que pretende recomendar opciones de música”, señaló la ministra de Ciencia, Aisén Etcheverry, al dar cuenta de la iniciativa legal.
Restricción y potencialidades
Usando como referente la reciente ley de la Unión Europea, se regulan los sistemas en cuatro categorías: riesgo inaceptable, alto, moderado y sin riesgo evidente; correspondiéndole a cada empresa determinar en cuál estará el suyo. Las sanciones serán aplicadas por una nueva institucionalidad: la Agencia de Protección de Datos Personales y existirá un Consejo Asesor Técnico de Inteligencia Artificial.
Bajo la categoría inaceptable, estarán los usos contra la dignidad de las personas, prácticas con alto potencial de manipular o evaluar estados emocionales; análisis de imágenes de vídeo con identificación en tiempo real (salvo en seguridad pública) y los sistemas basados en técnicas de facial scraping.
En alto riesgo, se clasifican las aplicaciones que puedan perjudicar significativamente la salud, la seguridad, los derechos fundamentales, de los consumidores o el medio ambiente. En limitado, se incluyen aquello usos sin riesgos significativos de manipulación, engaño o error. Por último, sin riesgo evidente podría contemplarse un sistema que sugiere películas o canciones, según las preferencias del usuario.
El proyecto busca contribuir a la innovación al posibilitar espacios controlados de pruebas para estas tecnologías antes que sean introducidas al mercado, así como la promoción de medidas para empresas de menor tamaño en esta materia.

