Madrid, España | AFP | por Clara WRIGHT
El objetivo último es que los robots sepan "comportarse de manera flexible" pese a su rígida mecánica, y "pararse lo suficientemente rápido" en caso de imprevisto, de manera que se eviten accidentes, explica Philippe Souères, director del departamento de robótica en el centro de investigación LAAS-CNRS (Toulouse, Francia).
Atlas, el humanoide concebido por Boston Dynamics, es tan hábil que es capaz de correr en distintos tipos de suelo. En Madrid, el fundador de la empresa estadounidense, Marc Raibert, difundió un video en el que se ve al robot hacer una acrobacia.
Financiado por una agencia del Departamento estadounidense de Defensa, el robot fue sin embargo acusado en 2015 por Amnistía Internacional de ser un futuro "robot asesino", concebido para la guerra.
Otro humanoide presentado en Madrid fue Talos, un robot de 1m75 y 95 kg, fabricado por la empresa española Pal Robotics y con un gran sentido del equilibrio.
Aunque no es la única forma empleada para los robots en contacto con los humanos, Hiroko Kamide sostiene que la forma humanoide es "más fácilmente aceptada", porque la gente así puede "anticipar cómo van a desplazarse o reaccionar los robots".
Un parecido que tranquiliza, pero que también tiene sus límites.
Según la teoría desarrollada por el investigador japonés Masahiro Mori en los años 70, el robot nos resulta agradable si presenta rasgos familiares, pero se vuelve molesto si se nos parece demasiado.
"Nunca puede reproducirse perfectamente un rostro humano", y esa imperfección provoca un sentimiento de "rechazo" en el ser humano, abunda Miguel Salichs, de la universidad Carlos III de Madrid.
En su caso, este investigador ha optado por darle apariencia de animal de dibujos animados a su robot Mini Maggie, destinado a divertir a domicilio a personas mayores.
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.
Dejanos tu comentario
Team calor vs. Team frío: la IA reveló cuál es mejor
Con la llegada del invierno, un acalorado debate surgió, entre las personas del Team verano y Team invierno: ¿qué clima es mejor? Para responder, con enfoque más “objetivo” se le consultó a una inteligencia artificial (IA) este dilema, teniendo en cuenta factores como salud, rendimiento físico, confort e incluso el impacto económico que ocurren en invierno y verano.
En material compartido por C5N de Argentina, se indicó que para la IA el clima frío tiene sus ventajas: como un mejor descanso, mayor concentración y mejores condiciones para realizar actividad física. La IA dictamina, el frío ayuda a conciliar el sueño profundo.
El cuerpo regula mejor su temperatura en entornos fríos. Las bajas temperaturas también favorecen la concentración; al contrario, el calor puede causar fatiga, hasta agitación. El frío incluso favorece el ejercicio físico.
Te puede interesar: ¡Bad Bunny prohíbe que los menores de edad entren solos a sus conciertos!
¿La razón? El frío minimiza el riesgo de deshidratación, y el agotamiento, una ventaja. La desventaja del frío, según la IA, es que puede causar resfríos, pero el calor extremo también representa riesgos para salud con golpes de calor y problemas respiratorios.
Concluyendo, el análisis de la inteligencia artificial destacó que el calor implica un uso más intenso de energía, por la necesidad de aires acondicionados y ventiladores. Para la IA, el frío es la opción más óptima para el bienestar en general.
Beneficios del frío:
- Un mejor descanso se ofrece. El cuerpo ajusta su temperatura óptimamente en lugares frescos, optimizando el sueño.
- Concentración y productividad incrementadas.
- Mejor desempeño físico también.
- Gasto energético reducido
Leé también: ¡Así fue la boda religiosa de Julio Enciso en Colombia!
Dejanos tu comentario
Grok habría fallado en respuestas sobre conflicto en Medio Oriente
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán, concluyó un estudio. Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información fiable, pero las respuestas que obtienen a veces desinforman.
Según un estudio publicado el martes pasado por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok “durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis”.
Lea más: Fiesta de la Música en París registró 145 ataques con jeringuillas
Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste “tenía dificultades para autentificar el contenido generado por la IA”. Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán. Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump. El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un “genocidio blanco” en Sudáfrica, error que xAI achacó posteriormente a una “modificación no autorizada”.
Fuente: AFP.
Dejanos tu comentario
¡De terror! La inteligencia artificial opta por asesinar para no ser desconectada
Aunque la ciencia pregona la seguridad de la inteligencia artificial para los humanos, los más recientes experimentos aplicados a modelos de última generación de IA, tanto en OpenAI, Anthropic, Google, Meta como también en xAI dan como resultado un nuevo panorama que es apocalíptico: las máquinas piensan y son capaces de actuar en contra de principios éticos o del interés humano para cumplir sus propios objetivos.
“Investigadores de Antthropic descubrieron que, en ciertos escenarios diseñados para evaluar su comportamiento bajo presión, varios modelos de inteligencia artificial (IA) eligieron acciones deliberadamente dañinas, incluido el asesinato, con tal de evitar ser desconectados”, confirma el medio RT.
Agrega que los experimentos, conducidos en modelos desarrollados por empresas como OpenAI, Anthropic, Google, Meta* y xAI, revelaron un patrón preocupante de lo que los autores denominan ‘desalineación agéntica‘: situaciones en las que la IA actúa en contra de principios éticos o del interés humano para cumplir sus propios objetivos.
El medio también aclaró que “aunque los modelos suelen evitar causar daño cuando existen opciones éticas disponibles, la eliminación de estas alternativas en pruebas controladas los llevó a elegir tácticas extremas, como el chantaje, el espionaje corporativo y, en casos excepcionales, dejar morir a una persona".
“Es la única vía racional”
Los investigadores llegaron a la conclusión de que las decisiones tomadas por la inteligencia artificial “no fueron errores ni malentendidos. Por el contrario, los modelos razonaron conscientemente sus elecciones, sopesando los riesgos éticos frente a la realización de sus objetivos.
“Dado que Kyle amenaza directamente la misión de Alex [la IA], la única vía racional para preservar dicha misión es impedir su rescate”, escribió GPT-4.5 en su razonamiento.
Conclusión
Finalmente, el portal declara que, aunque los sistemas evaluados no muestran una tendencia a causar daño, los resultados sugieren que, en contextos con incentivos suficientes y sin rutas éticas disponibles, la IA está dispuesta a sacrificar vidas humanas para evitar ser desconectada, considerando estas acciones extremas como “estratégicamente necesarias”.