La industria 4.0 utiliza la transformación digital en el proceso de dar conectividad a los sistemas existentes de las empresas. Para ello, recomiendan utilizar masivamente la computación en nube y las herramientas de inteligencia artificial para procesarlas. Estas son iniciativas que ya se están adoptando en los negocios, pero todavía en silos, resolviendo problemas concretos.
Este tema fue abordado en el informe de Fábio Jardim, director de soluciones IoT de Logicalis, quien indicó que el siguiente paso en el proceso evolutivo será la visión de forma unificada y organizada que empezarán a adoptar algunas compañías motivadas por un nuevo contexto de mercado.
“Los procesos de transformación digital han ido combinando una serie de tecnologías que pueden abordar y ayudar a las empresas en este proceso. Aquí entran en juego tendencias tecnológicas como la computación en la nube, IoT industrial, big data analytics, ciberseguridad y conectividad”, refirió.
Una vez informatizadas las líneas de producción, se debe implantar la conectividad y el procesamiento en la nube, garantizando la visibilidad de lo que ocurre en el entorno. “Durante un tiempo, muchas industrias se resistieron a llevar sus sistemas a la nube, pero es un paso que se ha hecho inevitable, sobre todo tras la aceleración registrada en los últimos tres años”, remarcó.
Agregó que en cualquier caso, esta tendencia se encuentra dando sus primeros pasos y hay que tener claro que todo este proceso es un camino de evolución. “Esto significa que desde el primer día tras la implantación, hay que sostener todo esto manteniendo el entorno estable, formando a los equipos y manteniendo los sistemas al día”, agregó.
Lea también: Feria de la Agricultura Familiar Campesina regresa este jueves
Dejanos tu comentario
Estudio sugiere que uso de IA hace menos críticos a los estudiantes
Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora de Chicago. Sus estudiantes “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases de negocios y sociedad en la Universidad de Illinois.
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA)... Y explica a AFP que no le sorprenden los resultados de una investigación reciente, que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
El estudio preliminar, que aún no ha sido revisado por pares, se hizo viral en redes sociales, resonando claramente entre muchos docentes que se enfrentan a estas prácticas. Desde su publicación el mes pasado, más de 3.000 profesores han escrito al equipo de investigadores del MIT que lo llevó a cabo, según declaró a AFP su autora principal, Nataliya Kosmyna.
Lea más: Cristina Kirchner pide permiso para que Lula la visite en su prisión domiciliaria
Para este estudio, 54 estudiantes de la zona de Boston fueron divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo sus sesos.
Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80% de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10% de cada uno de los otros dos grupos. Al final de la tercera sesión, parecían limitarse principalmente a copiar y pegar.
Lea también: EE. UU. pone fin a la Usaid y transfiere sus funciones al Departamento de Estado
Textos sin alma
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracia a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
Kosmyna matiza no obstante las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve estúpidas o más perezosas a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez... y mostró un nivel de conectividad neuronal aún mayor, señala.
Es demasiado pronto para sacar conclusiones de una muestra tan pequeña, según la investigadora, que reclama más estudios sobre cómo utilizar mejor las herramientas de IA para facilitar el aprendizaje.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos [como ChatGPT] sobre el cerebro”, declara a AFP.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía, pero también menos autenticidad.
La llegada de la inteligencia artificial se compara a menudo con la introducción de las calculadoras, que obligó a los profesores a cambiar sus métodos. Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje. “Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Fuente: AFP.
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.
Dejanos tu comentario
Productividad, tecnología y sostenibilidad, ejes del foro que convocó a la industria local
Más de 170 participantes, entre empresarios, técnicos y referentes industriales, formaron parte del Foro Internacional de Productividad organizado por el Centro de Formación y Capacitación Laboral (Ceprocal) de la Unión Industrial Paraguaya (UIP).
El evento reunió en una misma jornada contenidos estratégicos, experiencias prácticas y análisis sobre cómo mejorar la eficiencia y la innovación en las industrias nacionales.
El presidente de Ceprocal, Osvaldo Achón, explicó que el foro buscó ser un espacio para que las empresas puedan actualizarse, inspirarse y adoptar herramientas concretas que contribuyan a elevar la productividad del sector. Desde la organización destacan que este tipo de encuentros son claves para impulsar el desarrollo competitivo de la industria local.
Entre los temas abordados se destacó la conferencia sobre producción industrial con Lean Six Sigma, una metodología que apunta a reducir defectos y desperdicios en los procesos mediante el uso de herramientas estadísticas y principios de mejora continua.
El enfoque fue mostrar cómo estas prácticas pueden traducirse en mejores resultados financieros y mayor satisfacción de los clientes.
Leé también: BCP: la inclusión financiera se potencia gracias a las transferencias instantáneas
El foro también incluyó un taller sobre liderazgo y transformación industrial, donde se resaltó la importancia de contar con líderes que impulsen el cambio desde el propio lugar de trabajo.
Además, se presentaron casos exitosos como el modelo de Toyota, en el que la mejora continua forma parte de la cultura organizacional.
Otro de los ejes fue la eficiencia energética en entornos industriales, con propuestas para optimizar el consumo en procesos y plantas, incluyendo el uso de energías renovables y tecnologías híbridas. La sostenibilidad también estuvo en agenda, con un bloque que integró visiones técnicas sobre cómo reducir el impacto ambiental y mejorar la eficiencia económica.
La jornada cerró con una exposición sobre la Industria 4.0 y el potencial de tecnologías como el Internet de las Cosas, la inteligencia artificial y la automatización inteligente para redefinir los procesos industriales. El encuentro incluyó, además, un espacio de networking que facilitó la creación de vínculos y alianzas estratégicas entre los participantes.
Dejanos tu comentario
Grok habría fallado en respuestas sobre conflicto en Medio Oriente
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán, concluyó un estudio. Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información fiable, pero las respuestas que obtienen a veces desinforman.
Según un estudio publicado el martes pasado por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok “durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis”.
Lea más: Fiesta de la Música en París registró 145 ataques con jeringuillas
Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste “tenía dificultades para autentificar el contenido generado por la IA”. Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán. Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump. El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un “genocidio blanco” en Sudáfrica, error que xAI achacó posteriormente a una “modificación no autorizada”.
Fuente: AFP.