Ricardo Rivas, periodista Twitter: @RtrivasRivas

La educación de calidad es el camino. No solo para comprender y comprehender la IA o los algoritmos, sino para preservarnos como sujetos de derecho. Las advertencias no son pocas.

Ernesto Fernández Polcuch sostiene que “es necesario conducir la evolución de la IA (inteligencia artificial) hacia un desarrollo sostenible que no deje a nadie atrás” y advierte que “sin una perspectiva ética, los acelerados cambios tecnológicos que vivimos pueden terminar ampliando las desigualdades económicas, sociales y culturales”.

Invitación al canal de WhatsApp de La Nación PY

Diplomático, científico especializado en ciencia, tecnología e innovación (CTI), Ernesto enumera que la IA, en la vida cotidiana, posibilitaría “esperar menos por el transporte público, permitir el acceso a atención en salud a personas que están lejos de centros urbanos, identificar estrategias para adaptarnos mejor al cambio climático, enfrentar de mejor manera las sequías, incrementar la producción de alimentos más sanos, diseñar edificios que sean más eficientes en (el uso de la) energía” y destaca de esa reseña que “son solo algunos de los beneficios que la inteligencia artificial podría generar o ya está generando en nuestras vidas cotidianas”.

Por su parte, cuando promediaba la semana que pasó, el doctor Ricardo Pérez Manrique, presidente de la Corte Interamericana de Derechos Humanos (CorteIDH), coincidió con Fernández Polcuch y apuntó que en cuestiones de IA “como en todos los campos de la vida humana, si no se gestiona a favor de la humanidad puede conducir a resultados injustos”.

Pérez Manrique –en el inicio de una serie de webinarios de alcance global dirigidos a operadores de justicia– exhortó a las personas que se integran en ese colectivo profesional a “interrogarse respecto de por qué ciertas personas han sido catalogadas como más propensas a cometer delitos solo porque algoritmos de inteligencia artificial tienen sesgos en torno de afrodescendientes o de personas latinas”; a “preguntarse sobre las implicancias legales de los sistemas de reconocimiento facial que se alimentan de preconceptos estereotipados”; o, a plantearse –como interrogante social, además de jurídico– “quién regula los procesos de cibervigilancia”, por solo mencionar algunos de los interrogantes que emergen desde las administraciones de justicia a la hora de mensurar “el impacto de la inteligencia artificial en la administración de justicia”.

Ricardo Pérez Manrique, presidente de la Corte Interamericana de Derechos Humanos: en IA, algoritmos y otros desarrollos tecnológicos “como en todos los campos de la vida humana, si no se gestiona a favor de la humanidad, puede conducir a resultados injustos”

PREOCUPACIONES Y OCUPACIONES

Palabras claves: IA y algoritmos. Ambas son parte de las preocupaciones y ocupaciones de dos expertos notables que, desde sus actuales prácticas profesionales, proyectan de cara a un mañana que está a la vuelta de la esquina. ¿Y por qué debieran las reflexiones precedentes preocuparnos? Entre otras cuestiones porque una buena parte de nuestras vidas y de la gestión de nuestras actividades cotidianas –sociales o no– se enredan desde los dispositivos móviles que operamos. ¡No es el algoritmo, ni tampoco la IA lo que debe preocuparnos! De ninguna manera. Un algoritmo, vale saberlo, es un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. Su nombre deviene de uno de los más grandes matemáticos de la historia universal: Abu Abdallah Muhammad ibn Mūsā al-Jwārizmī, quien vivió –entre Persia oriental y Bagdad– unos 80 años entre el 780 y el 850 y a quien, en español, se lo menciona como Al-Juarismi.

El algoritmo no piensa per se. Un humano con inteligencia natural le aporta ese “conjunto de datos ordenado y finito de operaciones” ya mencionados para “hallar la solución de un problema” que es de él o de quien contrata sus servicios para hacerlo.

Por allí están mis pensamientos en esta fría noche de viernes mientras observo con atención los leños crepitantes desde la vieja mecedora. Un Gran Enemigo de 2010 en el copón acompaña la reflexión desde el momento del destape cuando lo dejé oxigenarse en el decantador. Criado en vasija de roble, después de un año y medio de espera, las uvas Petit Verdot, Cabernet Franc, Malbec y Cabernet Sauvignon se potencian. Observarlo a través de la superficie vítrea de la copa contra el fuego potencia su intenso color granate. Unas pocas chispas buscan ganar altura sin éxito. Quedan atrapadas en el chispero. Desde el celu las tiendas me ofrecen bajar la aplicación del Chat GPT. La oferta está asociada con IA.

Sin embargo, la sigla en inglés GPT es suficientemente clara. Generative Pre-trained Transformer. En español, transformador preentrenado generativo. El diccionario de la Real Academia de la Lengua Española (RAE) define inteligencia: “Capacidad de entender o comprender”; “conocimiento, comprensión, acto de entender”. Aplica a la humanidad. A la IA la define como “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. Debe ser creada por humanas y humanos. Entre ellos y ellas, el entrenador o entrenadora que preentrena al GPT para genere respuestas que, en no pocos casos, recolecta de los motores de búsqueda que utilizamos desde muchos años.

Mark Weiser: “Las tecnologías que calan más hondo son las que se pierden de vista; su imbricación en la vida diaria es tan íntima que terminan por pasar inadvertidas”

¿NUEVO HITO?

La inteligencia artificial (IA) no es algo nuevo. Es parte del desarrollo tecnológico. ¿Un nuevo hito? No tengo respuesta. Tampoco la imagino. Sí sé que el 23 de noviembre de 2021, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) reconoció formalmente “que el desarrollo de las tecnologías de la IA requiere un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional, así como el acceso a fuentes de información independientes, pluralistas y fidedignas, en particular en el marco de los esfuerzos destinados a atenuar los riesgos de información errónea, desinformación y discurso de odio, así como los daños causados por el uso indebido de los datos personales”.

Y que, en ese contexto, puntualizó –entre varias cuestiones relevantes– “que el marco normativo para (el desarrollo y la aplicación de) las tecnologías de la IA y sus implicaciones sociales se fundamenta en los marcos jurídicos internacionales y nacionales, los derechos humanos y las libertades fundamentales (y), la ética” porque “los valores y principios éticos pueden ayudar a elaborar y aplicar medidas de política y normas jurídicas basadas en los derechos, proporcionando orientación con miras al rápido desarrollo tecnológico”.

Eran tiempos difíciles aquellos. Angustias, ansiedades, penas, muertes, múltiples desconocimientos ante una pandemia de Sars-CoV-2 para la que no había vacunas eficientes, pero –es preciso destacarlo– también se percibía una creciente esperanza global para alcanzar soluciones posibles. Diecinueve meses antes de que la Unesco formulara las recomendaciones comentadas, en el orden regional la Corte Interamericana de Derechos Humanos (CorteIDH), el 9 de abril de 2020 –que claramente detectó en los primeros días de la emergencia la incidencia de múltiples vocaciones autoritarias que apuntaban a un excesivo control social–, emitió una declaración en su condición de “órgano (responsable de la) protección de los derechos humanos, consciente de los problemas y desafíos extraordinarios que los Estados americanos, la sociedad en su conjunto, y cada persona y familia están afrontando como consecuencia de la pandemia global”.

Con el paso del tiempo supe que las y los integrantes del máximo tribunal de justicia regional contaban con información segura y fehaciente de que algunos gobiernos aplicaban –justificándose para ello con la emergencia sanitaria– tecnología IA para operaciones de control social. De hecho, horas antes, en la tarde del 7 de abril de aquel año, la entonces ministra de Seguridad argentina, la antropóloga Sabina Frederic, informó ante una comisión parlamentaria que las fuerzas de seguridad, de las que tenía la conducción política, hacían “ciberpatrullaje en las redes sociales para detectar el humor social”.

Inmediatamente, procuró explicar que aquella operación “no es ciberespionaje” y detalló que se trataba de “un rastreo por lo que es público en las redes”. Ante situaciones como las que la funcionaria argentina admitió, la CorteIDH con diligencia recordó a los gobiernos de las Américas que “abordar y contener esta situación que concierne a la vida y salud pública se efectúe en el marco del Estado de derecho, con el pleno respeto a los instrumentos interamericanos de protección de los derechos humanos”.

Ante la grave situación verificada y en procura de que no se extendiera, con espíritu preventivo en el mismo documento la CorteIDH sostuvo que “deben disponerse las medidas adecuadas para que el uso de tecnología de vigilancia para monitorear y rastrear la propagación del coronavirus sea limitado y proporcional a las necesidades sanitarias y no implique una injerencia desmedida y lesiva para la privacidad, la protección de datos personales, y a la observancia del principio general de no discriminación”.

Shoshana Zuboff, académica, nos advierte sobre “La era del capitalismo de la vigilancia”

ALERTA

Para que no quedaran dudas, precisó que “resulta pertinente poner en alerta a los órganos o dependencias competentes para combatir la xenofobia, el racismo y cualquier otra forma de discriminación para que extremen el cuidado a efectos de que, durante la pandemia, nadie promueva brotes de esta naturaleza (no solo de vigilancia con IA, sino) con noticias falsas o incitaciones a la violencia”. Bienvenidos los desarrollos tecnológicos. Pero es preciso que los compromisos que asumen los gobiernos de los Estados se cumplan.

La “Recomendación ética de la inteligencia artificial” de la Unesco en 2021 fue aprobada por los 193 Estados parte que se comprometieron a “un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional” porque en aquel cónclave entendieron “que el desarrollo de las tecnologías de la IA (lo) requiere”.

En la misma línea, cinco años antes, cuando en setiembre de 2015, en la sede de Naciones Unidas, en Nueva York, se lanzó la Agenda 2030 de Objetivos para el Desarrollo Sostenible (ODS), en el ODS 4 aceptaron el desafío de avanzar en una “educación de calidad” para todos y todas con el propósito de “garantizar una educación inclusiva, equitativa y promover oportunidades de aprendizaje durante toda la vida”.

Ese es el desafío ético para diseñar y desarrollar políticas públicas con perspectiva de derechos humanos. Para saber que, definitivamente, la vida en los Estados democráticos de derecho va más allá de los algoritmos. Hay que saberlo y asumirlo. La educación de calidad es el camino. No solo para comprender y comprehender la IA o los algoritmos, sino para preservarnos como sujetos de derecho. Las advertencias no son pocas.

Shoshana Zuboff, académica en la Universidad de Harvard, en una obra imperdible –”La era del capitalismo de la vigilancia”– recuerda que “el científico computacional Mark Weiser en su trascendental artículo de 1991 ‘The computer for the 21st century’ (El ordenador del siglo XXI)” presenta en sociedad “lo que él bautizó como computación ubicua con dos frases legendarias: ‘Las tecnologías que calan más hondo son las que se pierden de vista; su imbricación en la vida diaria es tan íntima que terminan por pasar inadvertidas. [...] Las máquinas que consigan ajustarse al entorno humano en lugar de obligar a las personas a entrar en el mundo de la computación harán que su uso resulte tan agradable como un paseo por el bosque’”. ¿Se entiende de qué se trata?

Ernesto Fernández Polcuch: “Sin una perspectiva ética, los acelerados cambios tecnológicos que vivimos pueden ampliar las desigualdades que vivimos”

Dejanos tu comentario