Si bien desde el Congreso se encuentran proyectos como el que busca regular la aplicación de la huella dactilar en los comicios como una manera de transparentar aún más los procesos electorales, donde la medición biométrica sería una herramienta más para validar el voto en compañía de la cédula, la realidad es que es necesario implementar primero una ley de protección de datos, explicó el experto en ciberseguridad Miguel Ángel Gaspar.
En comunicación con La Nación/Nación Media, Miguel Ángel Gaspar argumentó que no siempre la solución tecnológica es la mejor solución cuando uno tiene problemas de seguridad, y que ahí radica la necesidad de trabajar en una ley de protección de datos que asegure el control real de todos los datos biométricos que los paraguayos faciliten a las entidades, además de desarrollar un circuito de resguardo de los mismos, impidiendo su filtración.
“El uso de biometría para poder resolver problemas de seguridad es altamente peligroso porque hoy el Estado paraguayo no puede garantizar la no corrupción de los entes que tienen que controlar y operar esos dispositivos que capturan biometría”, subrayó Gaspar como uno de los puntos en que se debe trabajar antes de avanzar con el uso de la tecnología.
Podés leer: El Congreso debe votar a favor de la extensión del horario de votación, sostienen
El experto en ciberseguridad elogió la finalidad de la utilización de huellas digitales y datos biométricos en general, viendo de manera muy positiva la implementación de las mismas, pero aseguró que tanto el paraguayo como el Estado deben estar preparados para una correcta utilización de los datos asegurando en primer lugar la incorruptibilidad de los sistemas en los cuales serán utilizados.
Miguel Ángel Gaspar dio varios ejemplos sobre lo que ocurre cuando la información personal es filtrada y terminan en casos de suplantación de la identidad o la venta de datos en el mercado para luego emplearlos con fines comerciales o de propaganda, y que si esto se diera con los datos biométricos de una persona sería mucho peor el escenario.
Haciendo hincapié en lo mencionado anteriormente es que el experto en ciberseguridad remarcó la importancia de una ley de control de datos que regule, administre y proteja la utilización de las nuevas tecnologías, salvaguardando así también la integridad personal de los paraguayos.
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.
Dejanos tu comentario
Justicia brasileña endurece reglas para las redes sociales
- Brasilia, Brasil. AFP.
La corte suprema de Brasil decidió ayer jueves aumentar las obligaciones de las plataformas digitales sobre los contenidos publicados por sus usuarios, en un proceso inédito en América Latina sobre la propagación de noticias falsas y discursos de odio en internet. La decisión del Supremo Tribunal Federal (STF), máxima instancia judicial del país, afecta a empresas como X, TikTok, Instagram y Facebook, que en adelante deberán eliminar “de inmediato” publicaciones que promuevan crímenes graves, sin esperar orden de un juez.
Aunque analizaron casos puntuales, los jueces sentaron un precedente para los usuarios de redes sociales en Brasil, un país de 203 millones de habitantes ultraconectados. Ocho de los 11 magistrados del tribunal consideraron parcialmente inconstitucional un artículo del llamado Marco Civil de Internet de 2014 que establece que las empresas tecnológicas solo son responsables si se niegan a acatar un mandato judicial para eliminar contenidos cuestionados.
Tras la decisión de ayer jueves, las plataformas deberán actuar sin necesidad de intervención judicial para retirar contenidos que promuevan acciones antidemocráticas, terrorismo, discursos de odio, pornografía infantil y otros crímenes graves. Las empresas también podrán ser responsabilizadas por los daños causados si no retiran contenidos ilícitos luego de recibir denuncias de sus usuarios o la notificación de un juez.
Lea más: Argentina impulsa juicio en ausencia para diez acusados por atentado de 1994 a mutual judía
“Preservamos en la mayor medida posible la libertad de expresión, sin permitir, sin embargo, que el mundo caiga en un abismo de incivilidad, legitimando discursos de odio o crímenes indiscriminadamente practicados en la red”, dijo el juez Luis Roberto Barroso, presidente de la corte.
El STF encontró una “solución equilibrada y moderada” ante un tema “divisivo en todo el mundo”, añadió, durante una sesión transmitida en vivo. El magistrado Kassio Nunes, uno de los tres votos disidentes, afirmó sin embargo que “la responsabilidad civil es principalmente de quien causó el daño” y no de las plataformas.
Lea también: León XIV nombra al paraguayo Cristóbal López en dicasterio
Libertad de expresión
El fallo puede profundizar las tensiones entre el STF y las compañías tecnológicas. Google expresó “preocupaciones” por cambios en la normativa “que pueden impactar la libertad de expresión y la economía digital”.
El gigante tecnológico apuntó que estudiará el efecto de las nuevas reglas y sigue “abierto al diálogo” con las autoridades brasileñas, según una nota enviada a la AFP.
El fallo cierra un debate iniciado en la corte suprema en noviembre de 2024, que fue permeado por las preocupaciones del gobierno del presidente brasileño, Luiz Inácio Lula da Silva, sobre los discursos de odio, la desinformación y el recorte de Meta a su programa verificación independiente de contenidos.
La AFP participa en más de 26 idiomas en un programa de verificación de datos financiado por Meta, que les paga a más de 80 medios de comunicación de todo el mundo.
El debate en el supremo brasileño ocurrió también en paralelo a un juicio en ese tribunal al expresidente Jair Bolsonaro y varios excolaboradores, acusados de usar las redes sociales para desinformar sobre la fiabilidad del sistema de votación e intentar un golpe de Estado tras la derrota del ultraderechista frente a Lula en 2022.
“Histórica”
El jefe de la agencia para la defensa legal del Estado (AGU), Jorge Messias, celebró en una nota una decisión “histórica” del STF “ampliando el deber” de las plataformas de cuidar el contenido que publican.
Brasil ganó protagonismo mundial en torno a las responsabilidades de las plataformas en agosto de 2024, cuando uno de los jueces del tribunal supremo, Alexandre de Moraes, bloqueó temporalmente el acceso a la red X en todo el país por negarse a acatar órdenes judiciales relacionadas con el combate a la desinformación.
Moraes acusó esta semana a las empresas tecnológicas de ambicionar una “inmunidad territorial” para ganar poder económico y político “sin fronteras”.
“La autorregulación (de las plataformas de redes sociales) se comprobó fallida”, dijo el juez en el foro sobre desinformación GlobalFact en Rio de Janeiro. El gobierno de Donald Trump estudia posibles sanciones contra Moraes, luego de que el entorno de Bolsonaro lo acusara de “perseguir” al exmandatario (2019-2022).
Dejanos tu comentario
Paraguay y Japón refuerzan cooperación bilateral con nuevo acuerdo para Senacsa
Paraguay y Japón firmaron este jueves un acuerdo de cooperación financiera no reembolsable, mediante el cual el Gobierno del país asiático destinará 350 millones de yenes (aproximadamente USD 2,4 millones) para la adquisición de equipos de laboratorio de última generación destinados al Servicio Nacional de Calidad y Salud Animal (Senacsa). Este apoyo es el resultado de la visita realizada por el presidente Santiago Peña a Japón, en mayo pasado en el marco de la expo mundial Osaka 2025.
La cooperación forma parte del “Programa de Desarrollo Económico y Social 2025” y permitirá dotar al laboratorio del Senacsa de tecnología avanzada, como cromatógrafos líquidos y espectrómetros de masas, que fortalecerán la capacidad institucional para certificar la calidad e inocuidad de los productos de origen animal. Estos avances serán clave para garantizar la seguridad alimentaria interna y potenciar la apertura de nuevos mercados internacionales para la carne paraguaya, según explicaron.
El acto contó con la presencia del presidente de Senacsa, Dr. José Carlos Martin; el embajador del Japón en Paraguay, Katsumi Itagaki; y el ministro de Relaciones Exteriores, Rubén Ramírez Lezcano, entre otras autoridades nacionales y diplomáticas.
Lea también: Senado avanza en legislaciones que servirán de base para control del uso del IA
Durante su intervención, el embajador Itagaki resaltó el prestigio internacional de los productos cárnicos paraguayos. “Paraguay es uno de los principales exportadores de carne bovina del mundo. Para mí, es la mejor carne en comparación con otros países”, afirmó. Recordó además que desde octubre de 2023 está en marcha un acuerdo de cooperación técnica por cuatro años, enfocado en mejorar el control de calidad de los alimentos de origen animal, con la participación de técnicos japoneses y paraguayos.
El embajador destacó que esta nueva iniciativa es uno de los frutos de la visita oficial del presidente Santiago Peña a Japón, y anunció la próxima llegada de altos funcionarios japoneses para dar seguimiento al proyecto. “Con esta cooperación esperamos fortalecer la capacidad de análisis, cumplir con normativas sanitarias internacionales y formar talento humano mediante la transferencia tecnológica”, subrayó.
Por su parte, el canciller Rubén Ramírez expresó su agradecimiento al gobierno japonés y valoró el significado de este acuerdo dentro de una relación bilateral “sólida y madura”, forjada sobre los principios de cooperación y desarrollo compartido. “Celebramos 106 años de relaciones diplomáticas, 60 años de cooperación bilateral y, el próximo año, conmemoramos 90 años de la primera migración japonesa al Paraguay”, recordó.
Le puede interesar: Ejecutivo destaca leyes aprobadas por mayoría democrática en el Legislativo
Próximos acuerdos
El fortalecimiento del Senacsa responde a las prioridades del Gobierno paraguayo, que busca mejorar la trazabilidad bovina y consolidar el posicionamiento del país como proveedor confiable de alimentos seguros y de calidad, expuso el ministro.
“El compromiso del sector productivo e industrial, junto con el profesionalismo del Senacsa, nos ha permitido estar entre los 10 mayores exportadores de carne vacuna en el mundo”, enfatizó Ramírez. Agregó que este acuerdo contribuirá a abrir nuevos mercados y promover el desarrollo sostenible, especialmente en comunidades rurales.
Finalmente, el canciller reafirmó la voluntad del Paraguay de seguir profundizando la cooperación con Japón, anunciando que se prevén nuevas notas reversales para ampliar aún más esta histórica y fructífera relación bilateral.
Dejanos tu comentario
Senado avanza en legislaciones que servirán de base para control del uso del IA
El senador Patrick Kemper, presidente de la Comisión de Ciencias, Tecnología, Innovación y Futuro, se refirió a la audiencia pública que se desarrolló hoy jueves, sobre el proyecto de Ley “Que regula y promueve la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (IA)”.
Al respecto, afirmó que se tomaron notas de todas las sugerencias y eventualmente estarán planteando un dictamen desde la Comisión. No obstante, señaló que por ahora la prioridad de la comisión es el estudio de la propuesta de ley de Protección de Datos, que es la base para poder avanzar en el otro proyecto, así como Ciberseguridad que estarán enfocados en el próximo trimestre.
Le puede interesar: Ejecutivo destaca leyes aprobadas por mayoría democrática en el Legislativo
Mencionó que durante la audiencia pública participaron diferentes sectores de la sociedad civil, representantes de las instituciones del Estado. Entre ellos, el ministro de Tecnologías de la Información y Comunicación (Mitic), Gustavo Villate, así como de representantes de la Corte Suprema de Justicia; la Policía Nacional y la Sociedad Paraguaya de la Inteligencia Artificial (Sopaia).
“Lo que sí hemos coincidido es en la necesidad de priorizar el estudio y eventual aprobación del proyecto de Ley de Datos Personales, que ya cuenta con media sanción de Diputados y está en estudio en el Senado. Nos estaremos enfocando en eso, porque vemos muy importante contar primero con una legislación base para luego seguir avanzando en las demás propuestas”, explicó.
Asimismo, explicó que existen otros proyectos más relacionados a la materia de tecnología, como la propuesta de Ciberseguridad. “En este siguiente trimestre nos enfocaremos en poder organizar la agenda legislativa en todo lo que tenga que ver con desarrollo tecnológico, ciberseguridad, desarrollo, etcétera. De modo a poder construir legislaciones que sean provechosas para el ambiente, y lógicamente para el desarrollo tecnológico de nuestro país”, acotó.
El legislador explicó que la Ciberseguridad es un conjunto de diferentes cosas al mismo tiempo, ya que contar con una legislación que le permita al Estado paraguayo a través de sus organismos poder implementar medidas de ciberseguridad, por lo menos es uno de sus aspectos.
“En tanto, la información, la formación, o educación de todos los ciudadanos sobre todo lo que hay que hacer, o no, dentro del ámbito tecnológico, sean ésto el celular, la computadora u otro dispositivo, o todo lo que sea acceso a la tecnología en todas sus variables es también muy importante. La gran mayoría de las filtraciones de datos es por un error humano, no siempre por un hackeo o vulneración de un sistema”, explicó.
Le puede interesar: Peña celebra unidad en la ANR: “Hay coloradismo para rato”