Meta, propietaria de Facebook, desveló el viernes su propia versión de inteligencia artificial detrás de aplicaciones como ChatGPT, y afirmó que daría acceso a los investigadores para encontrar soluciones a los peligros potenciales de la tecnología.
Meta describió su propia inteligencia artificial (IA), llamada LLaMA, como un modelo “más pequeño y de mayor rendimiento” diseñado para “ayudar a los investigadores a avanzar en su trabajo”, en lo que podría considerarse una crítica velada a la decisión de Microsoft de difundir ampliamente la tecnología, mientras mantiene en secreto el código de programación.
ChatGPT, respaldada por Microsoft, ha causado sensación en todo el mundo por su capacidad para generar en cuestión de segundos textos de gran calidad, como ensayos o poemas, utilizando una tecnología conocida como grandes modelos lingüísticos (LLM, por sus siglas en inglés).
Lea más: Revista rechaza más de 500 relatos escritos con inteligencia artificial
Los LLM forman parte de un campo conocido como IA generativa que también incluye la capacidad de ejecutar imágenes, diseños o código de programación de forma casi instantánea a partir de una simple petición.
Microsoft ha estrechado su colaboración con OpenAI, creador de ChatGPT, y a principios de este mes anunció que la tecnología se integraría en su motor de búsqueda Bing, así como en el navegador Edge. Google, viendo una repentina amenaza al dominio de su motor de búsqueda, anunció rápidamente que lanzaría en breve su propia IA lingüística, conocida como Bard.
Lea también: ChatGPT aprueba examen de ingreso de facultad de Derecho
Pero reportes de intercambios inquietantes con el chatbot Bing de Microsoft, como amenazas y deseos de robar código nuclear, se hicieron virales, encendiendo las alarmas de que la tecnología no estaba preparada. Meta dijo que estos problemas, a veces llamados alucinaciones, podrían remediarse de mejor forma si los investigadores tuvieran un mayor acceso a la costosa tecnología.
OpenAI y Microsoft limitan estrictamente el acceso a la tecnología que hay detrás de sus chatbots, lo que suscita críticas de que están prefiriendo los potenciales beneficios a mejorar la tecnología más rápidamente para la sociedad. “Al compartir el código de LLaMA, otros investigadores pueden probar más fácilmente nuevos enfoques para limitar o eliminar estos problemas”, afirma Meta.
Fuente: AFP.
Dejanos tu comentario
Buddharoid, el monje robot que da consejos espirituales
Investigadores japoneses presentaron el monje robótico impulsado por inteligencia artificial “Buddharoid”, capaz, según ellos, de dar consejos espirituales y, quizá algún día, paliar la escasez de bonzos. La máquina fue entrenada en escrituras budistas y puede responder a preguntas que los fieles a veces no se atreven a hacer a una persona, explicó este miércoles la Universidad de Kioto, en el oeste de Japón.
El pequeño humanoide bípedo tiene la habilidad de comunicarse oralmente. “En el futuro, es posible que asista o sustituya a ciertos rituales religiosos que tradicionalmente realizan los monjes”, explicó la universidad nipona. Este robot es la última creación de Seiji Kumagai, profesor en el Instituto para el Futuro de la Sociedad Humana de la institución universitaria.
Utilizando modelos de la empresa estadounidense OpenAI (ChatGPT) y otros, ya había trabajado en chatbots religiosos como “BuddhaBot” o un bot de catecismo. Para el sacerdote robótico, Kumagai instaló su software “BuddhaBotPlus” en un robot humanoide chino. Fue presentado el martes en un templo y, aunque todavía no tiene cara, viste un hábito gris y es capaz de juntar las manos en señal de oración.
Sentado en una silla, le dio consejos a una periodista para calmar su torbellino mental. “El budismo enseña que no hay que seguir ciegamente los pensamientos ni apresurarse”, declaró con voz grave a la reportera de la cadena NHK. “Una de las maneras consiste en calmar la mente y deshacerse de esos pensamientos”, añadió.
Millones de personas de distintas confesiones utilizan chatbots religiosos. Kioto ya cuenta con un androide sin funcionalidades de IA, Mindar, que pronuncia sermones y Alemania presentó en 2017 un robot que bendice a los fieles en cinco idiomas. La nueva máquina combina inteligencia artificial y robótica, ofreciendo consejos espirituales y manteniendo conversaciones religiosas mientras realiza movimientos físicos similares a los humanos.
La Universidad de Kioto es partidaria de evaluar desde un punto de vista ético el uso de estas herramientas en entornos religiosos. Pero estos humanoides podrían realizar algunas tareas en el futuro debido al envejecimiento de la población y la escasez de mano de obra en el archipiélago.
Fuente: AFP.
Dejanos tu comentario
OCDE pone foco en la IA empresarial
La inteligencia artificial ya no es solo una apuesta tecnológica, es una decisión estratégica, y en ese terreno, la confianza empieza a pesar tanto como la innovación.
Las compañías que adoptan prácticas responsables en IA (inteligencia artificial) no solo reducen contingencias legales o reputacionales, también fortalecen su relación con inversionistas, clientes y reguladores.
Así lo plantea la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en su nueva Guía de debida diligencia para una IA responsable, un documento que aterriza la conversación ética en el lenguaje que las empresas entienden: gestión de riesgos, gobernanza y acceso a mercados.
El mensaje es claro, y lo comparten en un contexto en el que la regulación avanza y la supervisión pública aumenta, por lo que anticiparse es una ventaja competitiva, así que invitan a pasar del discurso a la gestión.
La guía propone aplicar a la IA el mismo marco de Conducta Empresarial Responsable (RBC) que la OCDE recomienda para operaciones globales, con un esquema que se resume en seis pasos:
-Integrar principios de IA responsable en políticas y sistemas internos.
-Establecer mecanismos de remediación cuando sea necesario.
-Identificar y evaluar impactos adversos potenciales.
-Comunicar acciones con transparencia.
-Prevenir o mitigar riesgos.
-Monitorear resultados.
No se trata solo de evitar sesgos algorítmicos, ya que la debida diligencia abarca derechos humanos, laborales, gobernanza de datos y hasta impacto ambiental. Pero, qué significa esto en la práctica, lo que para empresas que desarrollan, integran o usan sistemas de IA, la guía sugiere acciones concretas que se detallan a continuación:
-Participación activa de trabajadores y partes interesadas.
-Documentación técnica que permita auditorías.
-Despliegues graduales con monitoreo continuo.
-Revisiones de calidad y trazabilidad de datos.
-Transparencia en decisiones automatizadas.
-Pruebas independientes de resultados.
El enfoque es transversal, pues aplica tanto a proveedores tecnológicos como a compañías que incorporan IA en logística, manufactura, salud o administración, por lo que se considera a la IA como activo confiable y reputacional.
La OCDE subraya que la IA puede aumentar productividad y generar valor económico significativo. Pero ese potencial depende de su aceptación social y regulatoria. Y eso, en última instancia, se construye con procesos claros y responsabilidad demostrable.
En un escenario donde la inteligencia artificial redefine modelos de negocio, la pregunta ya no es si las empresas deben usar IA, sino cómo hacerlo sin comprometer su sostenibilidad a largo plazo. La conclusión es empresarial, no filosófica: en la economía de los algoritmos, la gobernanza también es innovación.
Dejanos tu comentario
Nueva comisión de la ONU busca el “control humano” de la IA
Una nueva comisión de la ONU busca el “control humano” de la inteligencia artificial, anunció este viernes el jefe del organismo internacional durante una cumbre global en India, en la que una decena de líderes sopesan una postura común sobre esta tecnología revolucionaria... y polémica. La frenética demanda de IA generativa ha disparado los beneficios de las empresas tecnológicas, pero al mismo tiempo ha alimentado muchos temores sobre su impacto en la sociedad, en los empleos e, incluso, en la salud del planeta.
“Nos estamos adentrando en lo desconocido”, dijo el secretario general de Naciones Unidas, António Guterres, en la Cumbre sobre el Impacto de la IA celebrada en Nueva Delhi, que concluye este viernes. “El mensaje es simple: menos exageración, menos miedo. Más hechos y evidencia”. Según Guterres, la Asamblea General de la ONU designó a 40 expertos para un nuevo grupo denominado Panel Científico Internacional Independiente sobre Inteligencia Artificial.
Este órgano consultivo se creó en agosto y su objetivo es que aborde la IA tal como lo hace el Panel Intergubernamental sobre el Cambio Climático (IPCC) de la ONU para el calentamiento global, estableciendo evaluaciones sobre su impacto y también estrategias de respuesta.
“La gobernanza basada en la ciencia no es un freno al progreso”, sino que puede hacerlo “más seguro, más justo y más ampliamente compartido”, defendió Guterres en la cumbre.
“Cuando comprendamos lo que los sistemas pueden hacer, y lo que no pueden hacer, podremos pasar de medidas aproximadas a barreras de protección más inteligentes y basadas en el riesgo”, añadió.
Además de este anuncio, se espera que este viernes decenas de líderes mundiales y ministros presenten una visión compartida sobre los riesgos y oportunidades que plantea la IA para clausurar la cumbre de cinco días.
Esta es la cuarta reunión mundial anual centrada en la política de IA. La próxima tendrá lugar en Ginebra en la primera mitad de 2027, anunció el jueves el presidente suizo.
Esta cita de Delhi fue además la primera cumbre sobre inteligencia artificial que se celebra en un país en desarrollo, e India aprovecha la oportunidad para impulsar sus ambiciones de alcanzar a Estados Unidos y China.
Nueva Delhi espera más de 200.000 millones de dólares en inversiones durante los próximos dos años, y varios gigantes tecnológicos estadounidenses han presentado esta semana nuevos acuerdos y proyectos de infraestructura.
“Bien común” mundial
Sam Altman, director de OpenAI y su famoso robot conversacional ChatGPT, pidió el jueves en el foro la adopción urgente de una regulación sobre el uso de la inteligencia artificial.
“La democratización de la IA es la mejor manera de garantizar que la humanidad prospere”, aseguró en su intervención. “Esto no quiere decir que no necesitemos ninguna regulación o medida de seguridad. Es obvio que las necesitamos, urgentemente”.
Por su parte, el presidente brasileño, Luiz Inácio Lula da Silva, alertó que, “sin una acción colectiva, la inteligencia artificial agravará las desigualdades históricas”.
“Los algoritmos no son solo aplicaciones de códigos matemáticos que sustentan el mundo digital, son parte de una compleja estructura de poder”, añadió el mandatario latinoamericano, al señalar que cuando “unos pocos” los controlan “no estamos hablando de innovación, sino de dominación”.
Los debates de la cumbre de Nueva Delhi, a la que asistieron decenas de miles de personas, han abarcado grandes temas, desde la protección de los niños hasta la pérdida de puestos de trabajo y la necesidad de un acceso más equitativo a las herramientas de IA en todo el mundo.
Sin embargo, ese amplio enfoque y las vagas promesas realizadas en las citas anteriores en Francia, Corea del Sur y Reino Unido podrían hacer que los compromisos concretos sean poco probables.
“Estamos entrando en una era en la que los seres humanos y los sistemas de inteligencia crean, trabajan y evolucionan juntos”, señaló el jueves el anfitrión, el primer ministro indio, Narendra Modi. “Debemos decidir que la IA se utilice para el bien común mundial”, clamó.
Fuente: AFP.
Dejanos tu comentario
Jefe de OpenAI defiende la urgente regulación de la IA
El director de la influyente plataforma OpenAI, Sam Altman, pidió este jueves la adopción urgente de regulación sobre el uso de la inteligencia artificial, al tiempo que varios dirigentes mundiales defendieron la democratización de esa tecnología. En una cumbre en India sobre los riesgos de la IA, Sam Altman, director de OpenAI y su famoso robot conversacional ChatGPT, aseguró que el mundo necesita “urgentemente” regular esa tecnología en rápida evolución.
“La democratización de la IA es la mejor manera de garantizar que la humanidad prospere”, dijo. “Esto no quiere decir que no necesitemos ninguna regulación o medida de seguridad”, precisó Altman. “Es obvio que las necesitamos, urgentemente, al igual que las hemos necesitado para otras tecnologías potentes”, apuntó.
El anfitrión de la cita, el primer ministro indio Narendra Modi, llamó a “democratizar la IA. Debe convertirse en un medio de inclusión y empoderamiento, sobre todo para el sur global”.
Por su parte, el secretario general de la ONU, António Guterres, llamó a los magnates tecnológicos a apoyar la creación de un fondo global de 3.000 millones de dólares para asegurar que la IA sea accesible para todos.
El presidente brasileño, Luiz Inácio Lula da Silva, y el francés, Emmanuel Macron, participan del encuentro junto a otra veintena de jefes de Estado. Se espera que a finales de semana se firme una declaración destinada a regular el uso de la IA.
La lista de participantes incluye también al director de Google DeepMind, Demis Hassabis.
Impulsada por los sólidos resultados bursátiles de las empresas tecnológicas, la revolución que vive la IA alimenta las preocupaciones en todo el planeta sobre su impacto en el medioambiente, el empleo, la creación artística, la educación o la información.
El francés Macron dijo, a su vez, que su gobierno está decidido a garantizar una supervisión segura de la IA: “El mensaje que he venido a transmitir es que estamos decididos a seguir configurando las reglas del juego, y a hacerlo con nuestros aliados, como India”.
“Europa no se centra ciegamente en la regulación: Europa es un espacio para la innovación y la inversión, pero es un espacio seguro”, añadió.
“Transformación espectacular”
Otro de los principales temores sobre la IA se refiere a las consecuencias en el mercado laboral, especialmente en India, donde millones de personas trabajan en centros de atención telefónica y servicios de asistencia técnica.
Con sus 1.000 millones de internautas, la nación asiática se enorgullece de ser el primer país en desarrollo en organizar esta cumbre, la cuarta dedicada a esta tecnología, que se inauguró el lunes.
El martes, el ministro indio de Tecnologías de la Información, Ashwini Vaishnaw, anunció que su país espera atraer en dos años 200.000 millones de dólares de inversiones de empresas tecnológicas a su territorio, en particular para proyectos de IA.
Esta suma incluye 90.000 millones ya revelados el año pasado para la construcción de centros de datos por parte de Google, Microsoft y otras empresas, atraídas por una mano de obra abundante, capacitada y barata que ya ha convertido a India en un campeón de la subcontratación.
“Desde mi infancia (pasada) en Chennai, India ha experimentado una transformación espectacular”, resaltó el miércoles a la prensa Sundar Pichai, nacido en el país asiático y director general de Alphabet, la empresa matriz de Google.
Contratos
Este jueves, OpenAI y la empresa local Tata Consultancy Services (TCS) anunciaron la construcción de un centro de datos en India.
El líder mundial en semiconductores para la IA, Nvidia, adelantó también el día anterior que logró una asociación con el proveedor indio de centros de datos y servicios de nube L&T, con sede en Bombay (oeste), para crear “la mayor fábrica de IA de India”.
Por su parte, Google anunció la construcción de nuevos cables submarinos desde el país asiático, como parte de una gigantesca inversión que prevé, además, la construcción del mayor centro de datos de la compañía fuera del territorio estadounidense en la ciudad de Visakhapatnam (sureste).
El año pasado, India ocupó el tercer lugar, por delante de Corea del Sur y Japón, en la clasificación mundial anual de competitividad en materia de IA elaborada por la estadounidense Universidad de Stanford. A pesar de la lluvia de contratos e inversiones, los organizadores de la cumbre fueron objeto de críticas por las congestiones en los puntos de entrada y otros problemas, especialmente durante el primer día.
Fuente: AFP.