Desde las aspiradoras inteligentes a los automóviles sin conductor, la inteligencia artificial se ha abierto camino en todos los ámbitos de la vida y obliga a los legisladores a adaptarse frente a sus consecuencias, todavía desconocidas.

Sus defensores creen que la inteligencia artificial (IA) está revolucionando la experiencia humana, pero sus críticos temen dejar en manos de las máquinas decisiones fundamentales. La Unión Europea (UE) quiere aprobar el año que viene una legislación específica, Estados Unidos publicó un proyecto de ley sobre la IA y Canadá también está estudiando legislar.

En Occidente preocupa que la IA se use como en China, con datos biométricos o reconocimiento facial para construir un sistema de control de la población. Gry Hasselbach, un académico danés que asesora a la UE sobre IA, aseguro que los países occidentales también están en peligro de crear “infraestructuras totalitarias”.

Invitación al canal de WhatsApp de La Nación PY

“Lo veo como una gran amenaza, sean cuales sean los beneficios”, dijo a AFP. Pero antes de que los reguladores puedan actuar, deberán primero enfrentarse a la compleja tarea de definir qué es realmente la IA. Suresh Venkatasubramanian de la Universidad de Brown, coautor del proyecto de ley estadounidenses sobre IA, cree que tratar de definirla es “una pérdida de tiempo”.

Lea más: “Inteligencia artificial”, la expresión del año

Los avances de la inteligencia artificial ya están instalados en el cotidiano a través de diversas aplicaciones en el teléfono. Foto: Archivo.

Cualquier tecnología que afecte los derechos de las personas debe estar dentro del alcance del proyecto de ley, afirmó en Twitter. Los 27 países de la UE optaron en cambio por intentar definir este campo en expansión y el proyecto de ley incluye prácticamente cualquier sistema informático que implique automatización.

El problema surge de la definición misma de la IA, que ha ido cambiando con el tiempo. Durante décadas, el término describió los intentos de crear máquinas que simulan el pensamiento humano. Pero en los años 2000 se dejó de investigar lo que se conoce como IA simbólica.

El ascenso de las grandes compañías de Silicon Valley hizo que el término IA se usara como etiqueta general para sus programas de procesamiento y para los algoritmos que generan. Esta automatización permitió dirigirse a los usuarios con publicidad y contenido personalizado e hizo ganar cientos de miles de millones de dólares a esas empresas.

“La IA era una forma de hacer un mayor uso de estos datos de vigilancia y de hacer incomprensible lo que estaba sucediendo”, dijo a AFP Meredith Whittaker, exempleada de Google y cofundadora del AI Now Institute de la Universidad de Nueva York. Por eso, tanto la UE como Estados Unidos llegaron a la conclusión de que cualquier definición de IA debe ser lo más amplia posible.

Lea también: Paraguay recibió premio internacional por investigación médica sobre el COVID-19

Las cámaras en espacios públicos poseen tecnología de reconocimiento facial y de matrículas. Foto: Archivo.

“Alto riesgo”

El proyecto de ley europeo tiene más de 100 páginas. Entre sus propuestas más llamativas está la prohibición total de ciertas tecnologías de “alto riesgo”, como las herramientas de vigilancia biométrica utilizadas en China. También limita drásticamente el uso de herramientas de IA por parte de los funcionarios de migración, la policía y los jueces.

Hasselbach, el académico que asesora a la UE, cree que algunas tecnologías son “simplemente demasiado complejas para los derechos fundamentales”. A diferencia de la UE, en Estados Unidos el proyecto de legislación es un breve conjunto de principios, con afirmaciones como “debería estar protegido de sistemas inseguros o ineficaces”.

El proyecto de ley fue publicado por la Casa Blanca y se basa en la legislación existente, pero los expertos creen poco probable que haya una legislación específica sobre IA en Estados Unidos antes de 2024. “Necesitamos desesperadamente regulación”, dice a AFP Gary Marcus, de la Universidad de Nueva York, y señala que existen “grandes modelos lingüísticos” de inteligencia artificial --como los chatbots, las herramientas de traducción o el software de texto predictivo--que pueden utilizarse para generar desinformación perjudicial.

Fuente: AFP.

Déjanos tus comentarios en Voiz