Crecen pedidos de una regulación ante el asombroso avance tecnológico. En un experimento, la IA se mostró capaz de “leer la mente”. En la semana la Casa Blanca llamó a las corporaciones líderes del sector para ajustar un compromiso “ético y moral” sobre el desarrollo. En Brasil ingresó al Parlamento un pedido de regulación. Aquí un panorama.

Semana a semana, la evolución de la inteli­gencia artificial (IA) asombra a propios y extra­ños al punto de que los exper­tos del sector aseguran que se está más cerca de lo que se creía del advenimiento de una “inteligencia artificial general”; es decir, que las máquinas igualen e, incluso, superen el comportamiento del cerebro humano.

Geoffrey Hinton, conside­rado el “padrino de la IA”, comentó en estos días al renunciar a Google: “Pen­saba que faltaban de 30 a 50 años (para una AGI). Ya no”. Lo hizo advirtiendo del peligro de la “excesiva velo­cidad” con que se está desa­rrollando este ingenio. “Es difícil ver cómo se puede evi­tar que los malos actores lo usen para cosas malas”, dijo compungido.

A su turno, Demis Hassa­bis, el desarrollador de Deep Mind, la apuesta de Google para enfrentar a Open AI, la creadora de Chat GPT, apuntó: “Podríamos estar a solo unos pocos años (de la aparición de una AGI), tal vez dentro de una década de dis­tancia”, apuntó.

Por lo pronto, en estos días se dio a conocer el experimento de investigadores de la Uni­versidad de Texas en el que una IA se acercó, a grandes rasgos, a “leer la mente” de una persona. Conectaron la IA a un resonador magnético para que leyera qué partes del cerebro se activaban en el paciente cuando escuchaba un podcast en sus auriculares.

La IA, mediante el programa GPT-1, logró decodificar y describir la esencia de las his­torias que escuchó mediante un “decodificador semán­tico”, tal como lo llamaron en la publicación especiali­zada Nature Neuroscience. El aparato probado en varios pacientes consiguió también describir lo que pensaban y observaban mientras veían proyecciones de cine mudo.

El experimento podría ayu­dar a darles la posibilidad de recuperar el habla a pacien­tes que “luchan por comuni­carse debido a un accidente cerebrovascular o una enfer­medad de la neurona motora”, dijeron los especialistas del Centro de Imágenes Bio­médicas de la Universidad de Texas. “Nuestro sistema funciona a nivel de ideas, semántica, significado”, dijo el neurólogo Alexander Huth, ideólogo del decodificador. “Esta es la razón por la que lo que sacamos no son las pala­bras exactas, es la esencia”. Por ejemplo, cuando a un par­ticipante se le reprodujeron las palabras “no sabía si gri­tar, llorar o salir corriendo”. En lugar de eso dijo “¡déjame en paz!”. Comentando el hallazgo para la BBC, el neu­rocientífico Christian Herff, que lidera una investigación parecida en la Universidad de Maastricht (Países Bajos), se mostró “absolutamente convencido de que la infor­mación semántica se utili­zará en las interfaces cere­bro-máquina para hablar en el futuro”.

RESPONSABILIDADES

Todo esto mientras sigue resonando la carta del 29 de marzo pasado que pidió un cese de seis meses en las investigaciones sobre IA porque esta puede represen­tar “una amenaza contra la humanidad”. Firmada por mil expertos y personalidades como Elon Musk y el cofun­dador de Apple Steve Woz­niak, el texto que se presentó con mil firmas lleva ya más de 27.000 adhesiones.

Por eso, la vicepresidenta de Estados Unidos, Kamala Harris, se reunió el pasado 4 de mayo con los directo­res generales de Alphabet, Anthropic, Microsoft y Open AI, a los que insistió en seña­lar “la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”.

Se anunció también un compro­miso para evaluar públicamente los sistemas en la Def Con, una convención de especialistas en informática que se realizará en agosto en Las Vegas.

El presidente Joe Biden par­ticipó brevemente por video­conferencia y les recordó a los empresarios el “enorme poten­cial y enorme peligro en lo que ustedes hacen… Sé que uste­des lo entienden y espero que puedan informarnos de lo que consideren que es más nece­sario para proteger a la socie­dad, así como para su avance”. Por su parte, Harris señaló que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayo­res desafíos de la sociedad”, pero también podría “aumen­tar drásticamente las amena­zas a la seguridad, reducir los derechos humanos y la priva­cidad, y socavar la confianza pública en la democracia”.

Tras el encuentro se informó también que el gobierno invertirá 140 millones de dólares en siete nuevos ins­titutos estatales de investiga­ción de inteligencia artificial. También las autoridades del Reino Unido anunciaron que revisarán los chatbots como el famoso Chat GPT, de Open AI.

Vale recordar que Open AI mantiene en secreto los datos con los que se han entrenado sus sistemas, un punto que traerá controversias a futuro.

Entre tanto, en Brasil, el pre­sidente del Senado, Rodrigo Pacheco, presentó un pro­yecto de ley para reglamentar el uso de la IA. El mismo sur­gió de una comisión de juristas que estudió el tema durante 70 audiencias públicas. “Por un lado, el proyecto establece derechos para proteger a las personas que son impacta­das diariamente por los siste­mas de inteligencia artificial, desde recomendar conteni­dos y dirigir publicidad en internet hasta analizar su elegibilidad para crédito y ciertas políticas públicas”, dice el texto.

La VP de EE. UU., Kamala Harris, con los CEO de IA

MIRADA LOCAL

Para Benjamín Barán, doc­tor en Ciencias, en ingenie­ría de Sistemas y Computa­ción, la carta tuvo un efecto importante: “Primero, es evidente que esta declara­ción resultó ser una exce­lente publicidad para el área, ya que cada vez más gente se interesa en inteligencia arti­ficial. No sé si esta declara­ción podrá detener las inves­tigaciones, pero seguro que creció el interés y que las per­sonas que ofrecen productos en el área, como varios de los firmantes, tendrán oportu­nidad de mejorar sus opor­tunidades de negocio”.

Barán, que es decano de la Facultad de Informática de la Universidad Comuneros, sigue exponiendo que “como científico, trabajo en el desa­rrollo de la ciencia porque creo en su potencial como un mecanismo de evolución, de mejorar nuestras vidas. Prohibir que se haga ciencia no parece ser el mejor de los caminos. En todo caso, gene­remos mecanismos de super­visión y control para desarro­llar una ciencia responsable. Tenemos bombas atómicas hace más de 70 años”.

Más allá del impacto mediá­tico que pudo tener la decla­ración en cuestión, el experto enfatiza la necesidad de hacer ciencia responsable y no pro­hibir las investigaciones.

“En este caso particular, cuando hablo de ciencia res­ponsable en IA me refiero a temas como XAI (explainable artificial intelligence), segu­ridad en IA, normas y están­dares, entre otros temas que nos permitirán aprovechar como sociedad las ventajas de la inteligencia artificial mini­mizando sus riesgos”, señala.

Para Sebastián Grillo, doc­tor en ciencias de la compu­tación, “como toda tecnología que interactúa con usuarios finales, siempre hay preo­cupaciones sobre el tipo de información capaz de captu­rar para terceros. Este riesgo se vuelve más significativo cuando es una herramienta que el usuario usa en el trabajo. Por ejemplo, ya hay empresas que advirtieron amenazas de seguridad al secreto industrial por este motivo. (La coreana Samsung, por ejemplo, ndr). Este riesgo es minimizado cuando la propia empresa desarrolla su propio servicio interno y no emplea servicios de terceros. Sin embargo, tam­bién está el problema de verifi­car las fuentes de información obtenidas, para lo cual ya se están proponiendo servicios más transparentes que Chat GPT como Perplexity, que pre­senta fuentes, pero tampoco es inmune a errores”.

De su parte, Diego Stalder, de la Facultad de Ingeniería de la Universidad Nacional de Asunción (UNA), considera que “como en toda herra­mienta es importante cono­cer sus limitaciones y sus posi­bles usos. Por eso es que uno tiene que registrarse para poder usarlo. En los están­dares de ética es importante saber qué datos se usaron y si los datos estaban abiertos para que se puedan entrenar esos modelos. Saber quién usa y para qué usa sobre todo en textos, audios y videos en los que se pueden generar noticias falsas (fake news) sobre todo. Puede usarse para bien, pero también cabe la posibilidad de que se lo haga para mal.

Se están generando nuevas empresas startups que están proponiendo nuevos produc­tos no solo con el Chat GPT, sino con otras herramientas de IA. Es importante que se tenga un standard ético para que no se usen datos de per­sonas y también la educación de la gente para el uso de estas herramientas, beneficios y riesgos. Habrá que analizar bien para establecer límites éticos y legales para seguir desarrollando la IA”.

“Confío en que el nuevo gobierno apoye el desarrollo de la ciencia”

“Preparémonos para aprove­char las ventajas que nos trae la era del conocimiento”, pro­pone Benjamín Barán, el más destacado científico para­guayo en inteligencia artifi­cial (IA).

El especialista recordó que se utiliza IA en el sector finan­ciero.

“Las necesidades de nues­tro mercado están creciendo tanto que la Universidad Comunera (Ucom) volverá a ofrecer un diplomado en fin­tech que incluirá varios tópi­cos relacionados a IA en el área. Las personas interesa­das podrán asistir a una mas­terclass gratuita en la que hablaremos sobre el “Impacto de la inteligencia artificial en la fintech” el próximo jueves 11 de mayo a partir de las 18:30, para la que sugiero inscribirse con suficiente anticipación”, recomendó.

–Como pionero en el área de la IA, ¿cómo se podría mejorar la inversión en las áreas investigativas de las universidades en este y en otros campos?

–En la década de los 80 publi­qué mis primeros trabajos científicos iniciando este maravilloso camino de la ciencia que tantas satisfaccio­nes me sigue trayendo hasta hoy en día. En aquellos días, no teníamos más ayuda que la comprensión de nuestra pro­pia familia. Con los años llegó el Conacyt (Consejo Nacio­nal de Ciencia y Tecnología), que de a poco trajo la posibi­lidad de financiar proyectos de investigación, incentivos a los investigadores, apoyo a posgrados, acceso a librerías científicas, entre otras alter­nativas que hacen hoy posible el desarrollo de la ciencia en nuestro país. Los niveles de inversión son todavía bajos, pero vamos mejorando año a año, por lo que confío en que el nuevo gobierno sabrá apoyar el desarrollo de la ciencia en esta era del conocimiento en que empezamos a transitar.

–¿Y cómo estamos presu­puestariamente?

–El proceso debe ser de hecho gradual. No ayuda mucho tener medios para millares de investigaciones si no tene­mos suficientes investigado­res. Entonces, ¿quién llevaría adelante estos proyectos? La formación de recursos huma­nos especializados es funda­mental y este es un proceso lento y complejo, puede lle­var como una década, ade­más de enormes esfuerzos, convertir a un profesional en un científico. Por suerte, las becas Carlos Antonio López están haciendo un excelente trabajo abriendo oportuni­dades en el exterior a nues­tros jóvenes talentos. Nos queda por ofrecer oportu­nidades similares también dentro de nuestro país para fortalecer nuestras univer­sidades y nuestros centros de investigación. También queda mucho por mejorar con la ineficiente burocracia hoy existente. Estamos en el sendero correcto, pero vamos demasiado despacio y queda mucho por hacer como país.

Finalmente, hizo mención a la recientemente aprobada Ley 7064, que crea el Sistema Nacional de Investigadores (Sisni), que una vez imple­mentada podrá facilitar una carrera profesional para un investigador.

–¿Cómo ve el futuro de este campo?

–El mundo de la ciencia es cautivador y en particular el área de la inteligencia arti­ficial, sobre todo en estos días en que crece el interés de tanta gente que ve ame­nazas y oportunidades que no percibían antes de las últi­mas noticias relacionadas a los chatbots como Chat GPT, Google Bard o Bing AI. Son tiempos apasionantes en los que podremos asombrarnos de grandes logros tecnológi­cos, de cambios considerables en nuestra antigua forma de vida con la aparición de inno­vadoras oportunidades y nue­vas profesiones.

Es en este contexto que com­parto mi visión optimista del futuro de la sociedad, de nuestro país en particu­lar, confiado en el talento, la capacidad y la ética de los jóvenes investigadores paraguayos que he tenido el honor de formar en las últi­mas décadas, en la pujanza de las empresas paraguayas, sobre todo de las empresas de software, en una ciudadanía responsable que sabrá vigi­lar el uso adecuado de nue­vas tecnologías como la inte­ligencia artificial para que esta sea una herramienta de progreso y bienestar, no una amenaza que nos termine perjudicando.

HOLLYWOOD EN HUELGA

La vigente huelga de los guionistas de Hollywood tiene como trasfondo la irrupción del uso de la IA en las histo­rias. Esto porque hay robots que ya son capaces de crear capítulos nuevos de una serie exitosa como “Seinfeld” sin costo y sin permiso de los autores.

Por eso, el sindicato de guionistas de Estados Unidos WGA (Writers Guild of America) exige “que se regule el uso de la inteligencia artificial” y que se prohíba que esta pueda reescribir el material de los guionistas. Hasta el momento, los principales estudios de televisión se han negado a la demanda y la contrapropuesta del sindicato consistente en tener “reuniones anuales para discutir los avances en la tecnología”.

HUMANE, LA IA QUE JAQUEA LA VIGENCIA DE SMARTPHONES

Humane, una startup creada por Imran Chaudhri y Bethany Bongiorno, exempleados de Apple, presentó un dispositivo con IA que proyecta imágenes en las manos y que podría sustituir a los smartphones. Se trata de una especie de clip que se engancha en la ropa capaz de proyectar una interfaz gráfica en la mano o en una superficie plana y su proyección funciona con comandos de voz.

No se conecta a ningún smartphone o smartwatch, sino que se trata de un dispositivo completamente independiente. Aún no está claro dónde se almacena la información, aun­que algunos presumen que estaría conectado a una nube.

La muestra del Humane tuvo lugar en la conferencia anual TED 2023 celebrada en Vancouver (Canadá), en donde Chaudhri respondió una llamada a mitad de la presentación para mostrar el funcionamiento del dispositivo que tiene un asistente virtual, traductor en tiempo real, que permite mantener conversaciones tipo Chat GPT y una cámara con la que puede identificar objetos. Hasta el momento no hay una fecha determinada para la producción de estos dispo­sitivos ni su venta al público.

IMPACTO ECONÓMICO DE LA IA

A mediados de marzo pasado, el laboratorio de inteligencia artificial Open AI lanzó su último modelo de lenguaje grande (LLM), el GPT-4, que pese a haber sido lanzado casi cuatro meses después de su predecesor, GPT-3.5, es capaz de hazañas de inte­ligencia mucho mayores.

Si bien aún es difícil calcu­lar el impacto económico potencial de este tipo de avance de la inteligencia artificial (IA), la consul­tora PwC estimó en 2022 que podría contribuir con 15,7 billones de dólares a la economía mundial para 2030.

Frente a estas estimacio­nes no sorprende que las acciones de IA empiecen a llamar la atención de los inversores.

IBM REEMPLAZARÁ 7800 TRABAJADORES CON IA

El gigante de computación IBM estima que unos 7800 empleos, el 30 % de su personal, podrían reemplazarse por la nueva tecnolo­gía. Esta decisión sigue la tendencia de otros gigantes tecnológicos como Google o Micro­soft –dos de los que más pelean por el domi­nio de la IA–, quienes ya despidieron a miles de trabajadores para centrarse en el desarro­llo de esta nueva tecnología.

Arvind Krishna, presidente ejecutivo de IBM, le contó a Bloomberg que suspenderán o ralen­tizarán las contrataciones específicamente en funciones de back office, y añadió que el 30 % de los puestos no orientados al cliente podría ser sustituido por IA y automatizaciones en cinco años.

El Foro Económico Mundial publicó su informe “El futuro de los trabajos” y estimó que casi 14 millones de puestos de trabajo podrían eliminarse para 2027 debido prin­cipalmente a una mayor automatización de muchas tareas.

ROBOTS AGRICULTORES

Plantan más de 6000 semillas en solo tres segundos utilizando una tecnología denominada Exact Shot para hacerlo con una gran precisión, rapidez y eficiencia.

Son 54 robots electrificados modulares de 56v y diferen­tes sensores que registran el momento en que cada semi­lla está en proceso de entrar en el suelo. Exact Shot rocía solamente la cantidad necesaria de fertilizante, unos 0,2 mililitros, directamente sobre la propia semilla en el momento exacto en que esta se introduce en la tierra.

Desarrollada por John Deere, esta tecnología fue presen­tada en el CES 2023 de Las Vegas. Dado que se espera que la población mundial crezca a casi 10.000 millones para 2050, se estima que los agricultores deben aumentar su producción entre un 60 y un 70% en las tierras cultiva­bles actuales. No solo eso, sino que Exact Shot también permite a los trabajadores del campo ahorrar dinero y reducir la cantidad de fertilizante inicial necesario durante la siembra en más del 60 %.

Dejanos tu comentario