En Buenos Aires ya se puede saber si uno tiene o no COVID-19 simplemente tosiendo en Whatsapp. En efecto, un sistema denominado IATos, que funciona mediante inteligencia artificial, permite confirmar casos positivos entre usuarios de Boti, el chat que habilitó la ciudad en la plataforma más usada mundialmente, y que sirve para hacer consultas sobre coronavirus.
IATos fue desarrollado por la Secretaría de Innovación y Transformación Digital de la ciudad de Buenos Aires y funciona a partir de una red neuronal de inteligencia artificial que es capaz de clasificar sonidos de voz, respiración y tos y está basado en algoritmos de aprendizaje automático.
Según el diario Clarín, para la implementación del sistema se realizó un trabajo de recolección de más de 140 mil muestras de toses, creando una base de datos que permite detectar si la tos corresponde potencialmente a una persona con coronavirus.
Lea también: Vacuna taiwanesa anti-COVID tiene una efectividad del 90%, dice Dinavisa
La persona que tiene síntomas o que estuvo en contacto estrecho con un caso confirmado debe grabar y enviar un audio con su tos, el cual es posteriormente analizado por IATos. Si el sonido coincide con los patrones de COVID-19 positivo se le recomienda hacerse un test para confirmar el diagnóstico.
Según se informó, actualmente, esta herramienta cuenta con alrededor del 86% de efectividad en la predicción. Esto permite que la ciudad de Buenos Aires pueda rescatar casos positivos que de otra manera no se habrían hecho el testeo.
En una prueba piloto que realizaron sobre un total de 2.687 audios evaluados, IATos recomendó realizarse el testeo a 554 personas. De esas 554 personas, 436 resultaron positivas en su hisopado y 118 fueron negativas, reveló Clarín.
El trabajo de investigación aprobado por el Comité de Ética del Hospital Elizalde se inició en el 2020 y cuenta con “la base de datos de toses positivas y negativas recolectada más grande del mundo”, según el gobierno porteño.
Le puede interesar: COVID-19: vacunación para niños en edad escolar no es obligatoria, aclara el MEC
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.
Dejanos tu comentario
La OMS mantiene abiertas todas las hipótesis sobre el origen del covid
¿Fuga en un laboratorio o transmisión animal? Después de tres años y medio de investigaciones, el origen del covid sigue siendo un misterio según la OMS, que lamenta la falta de información proporcionada por China.
La pandemia de covid-19 provocó millones de muertos -20 millones según la Organización Mundial de la Salud (OMS)- y estratos en la economía mundial.
Los primeros casos conocidos de la enfermedad surgieron a finales de 2019 en la ciudad china de Wuhan, donde está ubicado un instituto de virología conocido por sus investigaciones sobre los coronavirus.
Para muchos expertos entender el origen del covid es fundamental para aplicar contramedidas eficaces en el futuro y evitar nuevas pandemias.
“Todas las hipótesis deben permanecer sobre la mesa, incluida la propagación zoonótica y la fuga en un laboratorio”, declaró el director de la OMS el viernes tras la presentación de las conclusiones de un informe de expertos encargados de examinar el origen del covid.
Tedros Adhanom Ghebreyesus añadió que China les “envió información, pero no toda la solicitada”.
La larga investigación realizada a cabo por el Grupo Consultivo Científico de la OMS sobre los Orígenes de Nuevos Patógenos (SAGO) no permite esclarecer su origen.
“Nada se concluye con certeza absoluta”, reconoció María Van Kerkhove, epidemióloga estadounidense que dirige el departamento de Prevención y Preparación ante Epidemias y Pandemias de la OMS.
La pregunta de si el covid-19 se escapó accidentalmente de un laboratorio o si se propagó de un animal al ser humano sigue sin respuesta.
Una gran parte de la comunidad científica se inclina por la hipótesis de una transmisión al ser humano a través de un animal intermedio, probablemente infectado por un murciélago.
Fuga en un laboratorio
Pero la hipótesis de la fuga en un laboratorio, que en un momento fue tachada de teoría conspirativa, ganó popularidad recientemente en Estados Unidos. Agencias como el FBI o el Departamento de Energía la apoyan ahora con distintos niveles de certeza.
Incluso la Casa Blanca publicó en abril una versión revisada de su información disponible en su sitio de internet sobre el covid-19 que promueve esta teoría como el “verdadero origen” del virus.
La principal agencia de inteligencia de Estados Unidos, la CIA, también estimó en enero “con un bajo grado de confianza, que un origen de la pandemia de covid-19 relacionado con investigaciones es más probable que un origen natural”.
China califica esta hipótesis de “extremadamente improbable”.
Lea más: La ONU cumple 80 años, con una imagen empañada sobre su eficacia
En 2021 una misión de expertos designada por la OMS y enviada a China durante un mes pareció descartar la hipótesis de que el virus se hubiera escapado del instituto de virología de Wuhan.
Pero esa misión solo pudo entrar a China más de un año después del inicio de la epidemia, ya que Pekín se mostró muy reacio a permitir su llegada.
Sus conclusiones fueron recibidas con precaución e incluso escepticismo, especialmente en Estados Unidos.
La OMS solicitó a China “el acceso a cientos de secuencias genéticas de personas infectadas con covid-19 al inicio de la pandemia, información más detallada sobre los animales vendidos en los mercados de Wuhan, así como datos sobre los trabajos realizados y las condiciones de bioseguridad en los laboratorios de Wuhan”.
Pero “hasta la fecha, China no compartió esta información ni con SAGO ni con la OMS”, afirma la organización en un comunicado.
Dado que gran parte de la información necesaria para evaluar la hipótesis de una fuga en un laboratorio no fue transmitida a los expertos, “esta hipótesis no pudo ser ni estudiada ni descartada”, explicó la presidenta de SAGO, Marietjie Venter, ante los periodistas.
Los expertos también solicitaron información sobre este asunto a otros países, “incluidos Alemania y Estados Unidos”, pero tampoco obtuvieron respuesta, subrayó.
Te puede interesar: India, Polonia y Hungría regresaron al espacio tras varias décadas
Dejanos tu comentario
Grok habría fallado en respuestas sobre conflicto en Medio Oriente
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán, concluyó un estudio. Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información fiable, pero las respuestas que obtienen a veces desinforman.
Según un estudio publicado el martes pasado por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok “durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis”.
Lea más: Fiesta de la Música en París registró 145 ataques con jeringuillas
Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste “tenía dificultades para autentificar el contenido generado por la IA”. Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán. Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump. El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un “genocidio blanco” en Sudáfrica, error que xAI achacó posteriormente a una “modificación no autorizada”.
Fuente: AFP.
Dejanos tu comentario
Senado avanza en legislaciones que servirán de base para control del uso del IA
El senador Patrick Kemper, presidente de la Comisión de Ciencias, Tecnología, Innovación y Futuro, se refirió a la audiencia pública que se desarrolló hoy jueves, sobre el proyecto de Ley “Que regula y promueve la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (IA)”.
Al respecto, afirmó que se tomaron notas de todas las sugerencias y eventualmente estarán planteando un dictamen desde la Comisión. No obstante, señaló que por ahora la prioridad de la comisión es el estudio de la propuesta de ley de Protección de Datos, que es la base para poder avanzar en el otro proyecto, así como Ciberseguridad que estarán enfocados en el próximo trimestre.
Le puede interesar: Ejecutivo destaca leyes aprobadas por mayoría democrática en el Legislativo
Mencionó que durante la audiencia pública participaron diferentes sectores de la sociedad civil, representantes de las instituciones del Estado. Entre ellos, el ministro de Tecnologías de la Información y Comunicación (Mitic), Gustavo Villate, así como de representantes de la Corte Suprema de Justicia; la Policía Nacional y la Sociedad Paraguaya de la Inteligencia Artificial (Sopaia).
“Lo que sí hemos coincidido es en la necesidad de priorizar el estudio y eventual aprobación del proyecto de Ley de Datos Personales, que ya cuenta con media sanción de Diputados y está en estudio en el Senado. Nos estaremos enfocando en eso, porque vemos muy importante contar primero con una legislación base para luego seguir avanzando en las demás propuestas”, explicó.
Asimismo, explicó que existen otros proyectos más relacionados a la materia de tecnología, como la propuesta de Ciberseguridad. “En este siguiente trimestre nos enfocaremos en poder organizar la agenda legislativa en todo lo que tenga que ver con desarrollo tecnológico, ciberseguridad, desarrollo, etcétera. De modo a poder construir legislaciones que sean provechosas para el ambiente, y lógicamente para el desarrollo tecnológico de nuestro país”, acotó.
El legislador explicó que la Ciberseguridad es un conjunto de diferentes cosas al mismo tiempo, ya que contar con una legislación que le permita al Estado paraguayo a través de sus organismos poder implementar medidas de ciberseguridad, por lo menos es uno de sus aspectos.
“En tanto, la información, la formación, o educación de todos los ciudadanos sobre todo lo que hay que hacer, o no, dentro del ámbito tecnológico, sean ésto el celular, la computadora u otro dispositivo, o todo lo que sea acceso a la tecnología en todas sus variables es también muy importante. La gran mayoría de las filtraciones de datos es por un error humano, no siempre por un hackeo o vulneración de un sistema”, explicó.
Le puede interesar: Peña celebra unidad en la ANR: “Hay coloradismo para rato”