Los días 5 y 6 de octubre se llevará a cabo la octava edición del Congreso Internacional de Gestión Humana, donde se hablará acerca de cómo obtener los mejores resultados en una empresa. Se espera la participación de más de 300 profesionales en gestión de personas. La cita es en Cinemark de Paseo la Galería en Asunción.
Al respecto, Johann Maguiña, CEO de Comunidad RH, organizador del evento, contó a La Nación/Nación Media sobre los temas más relevantes que se pondrán en la mesa los dos días. El empresario indicó que el lema de este año es “fidelizando y motivando a colaboradores en tiempos de Chat GPT”.
“Hoy tenemos muchas prácticas tradicionales de recursos humanos vistas desde el foco de la tecnología. Con la irrupción del Chat GPT, hay mucho por creer y hacer. Justamente es en lo que vamos a trabajar en el congreso los dos días”, refirió Maguiña a LN.
Sostuvo, que el área de recursos humanos es de vital importancia para una empresa, pero que eso debe dejar de ser un “cliché”, si no convertirse en una realidad. “Esto es como decir, nos interesa la salud, pero no le pagan bien a los profesores o no los capacitan”, señaló.
Entre los disertantes internacionales, destacó la empresa de empresarios y CEO’s como la peruana Tarcila Shinno de Remote LAB, también el argentino Juan Bodenheimer, CEO de Instare, el chileno Felipe Cuadra, experto en el rubro cómo se maneja la motivación y compromiso basados en datos. También estará Virginia Borrajo, consultora de Estudio Locht desde Argentina.
Entre los disertantes locales se encuentran Cristi Aranda en representación de Palermo S.A, Alejandra Samaniego y Alicia Petrik representarán a Jobs, Andrés Stremiz a BW y Nicolás Campos estará por Readiness. El periodista de GEN/Nación Media, Mike Silvero dará una charla con dinámica de stand up para exponer cómo la gente percibe al área de recursos humanos, para que luego, se pueda transmitir de forma sencilla de qué trata realmente esta dirección empresarial.
Dejanos tu comentario
Captan el gas frío que formó las primeras galaxias
El observatorio ALMA, con el radiotelescopio más potente del mundo y ubicado en el norte de Chile, reveló las imágenes más detalladas hasta ahora de los inicios del universo, que permiten observar el gas frío que formó las primeras galaxias. “Nunca habíamos conseguido tanto detalle y profundidad en galaxias del universo temprano”, dijo a la AFP Sergio Martín, jefe del Departamento de Operaciones Científicas de ALMA, durante la presentación de las fotografías en Santiago.
La observación fue liderada por Rodrigo Herrera-Camus, director del Núcleo Milenio de Galaxias (MINGAL) de Chile. Las imágenes captaron los gases existentes hace más de 13.000 millones de años, que dieron paso a la formación de galaxias. Un aporte que profundiza lo descubierto en 2012 por el telescopio espacial James Webb (JWST), que reveló imágenes de galaxias que existieron en ese entonces, las más antiguas del universo.
Lea más: La soledad está relacionada con 871.000 muertes al año, según OMS
Con la captura de estos gases existe “la oportunidad de estudiar de dónde nacen las estrellas”, afirmó Herrera-Camus a la AFP. Gracias a sus cielos limpios, Chile alberga los telescopios de más de 30 países, entre ellos algunos de los instrumentos astronómicos más poderosos del mundo, como el Observatorio ALMA o el futuro Telescopio Extremadamente Grande, que en 2027 observará distancias jamás alcanzadas.
ALMA forma parte de un esfuerzo mancomunado entre el Observatorio Europeo Austral (ESO), el Observatorio Nacional de Radioastronomía (NRAO) y el Observatorio Astronómico Nacional de Japón (NAOJ).
Fuente: AFP.
Lea también: La IA aprende a chantajear para evitar ser desconectada
Dejanos tu comentario
Estudio sugiere que uso de IA hace menos críticos a los estudiantes
Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora de Chicago. Sus estudiantes “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases de negocios y sociedad en la Universidad de Illinois.
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA)... Y explica a AFP que no le sorprenden los resultados de una investigación reciente, que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
El estudio preliminar, que aún no ha sido revisado por pares, se hizo viral en redes sociales, resonando claramente entre muchos docentes que se enfrentan a estas prácticas. Desde su publicación el mes pasado, más de 3.000 profesores han escrito al equipo de investigadores del MIT que lo llevó a cabo, según declaró a AFP su autora principal, Nataliya Kosmyna.
Lea más: Cristina Kirchner pide permiso para que Lula la visite en su prisión domiciliaria
Para este estudio, 54 estudiantes de la zona de Boston fueron divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo sus sesos.
Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80% de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10% de cada uno de los otros dos grupos. Al final de la tercera sesión, parecían limitarse principalmente a copiar y pegar.
Lea también: EE. UU. pone fin a la Usaid y transfiere sus funciones al Departamento de Estado
Textos sin alma
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracia a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
Kosmyna matiza no obstante las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve estúpidas o más perezosas a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez... y mostró un nivel de conectividad neuronal aún mayor, señala.
Es demasiado pronto para sacar conclusiones de una muestra tan pequeña, según la investigadora, que reclama más estudios sobre cómo utilizar mejor las herramientas de IA para facilitar el aprendizaje.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos [como ChatGPT] sobre el cerebro”, declara a AFP.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía, pero también menos autenticidad.
La llegada de la inteligencia artificial se compara a menudo con la introducción de las calculadoras, que obligó a los profesores a cambiar sus métodos. Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje. “Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Fuente: AFP.
Dejanos tu comentario
Peña: “La tecnología se ha convertido en nuestra aliada estratégica”
Modernización del Estado, inclusión digital y seguridad cibernética fueron los aspectos destacados por el presidente Santiago Peña, durante su informe de gestión correspondiente al periodo julio 2024 – julio 2025, ante el Congreso Nacional.
Durante su discurso, el presidente Peña afirmó que la tecnología se ha convertido en una de las principales “aliadas estratégicas”, destacando proyectos concretos como la implementación del Sistema de Información en Salud (HIS), que alcanzó los 1.000 establecimientos de salud, y el Sistema de Monitoreo por Dispositivos Electrónicos, con mil tobilleras activas para proteger a víctimas de violencia intrafamiliar.
Además, hizo referencia al inicio de la construcción de la nueva sede de la Universidad Politécnica Taiwán-Paraguay, ubicada en el futuro Distrito Digital, siendo ambos una apuesta para formar talento nacional en áreas clave de la economía del conocimiento.
Entre las acciones destacadas en el informe, dentro del capítulo “Digitalización, innovación y transparencia para una gestión más eficiente”, se detalla el trabajo liderado por el Ministerio de Tecnologías de la Información y Comunicación (MITIC), que incluyó la renovación de la app del Portal Paraguay, con más de 350 trámites y documentos de portación obligatoria digitalizados, disponibles las 24 horas mediante Identidad Electrónica.
El mandatario resaltó además la digitalización de trámites en instituciones como la Secretaría Nacional por los Derechos Humanos de las Personas con Discapacidad, Migraciones y el Ministerio de Desarrollo Social. Esta transformación mejoró sustancialmente la experiencia de los usuarios, reduciendo tiempos de espera, eliminando la necesidad de traslados físicos y facilitando el acceso a servicios públicos desde cualquier punto del país con conexión a internet.
Asimismo, señaló que se logró implementar el sistema Digitalia, que permite tramitar expedientes internos sin uso de papel y que ya ha permitido ahorrar más de una tonelada en impresiones. Esto no solo optimiza el gasto público, sino que también incrementa la transparencia, la trazabilidad y reduce la burocracia en el sector público.
Durante su informe, el presidente Peña mencionó el lanzamiento de la Estrategia Nacional de Ciberseguridad 2025–2028, una hoja de ruta hacia un Paraguay con un ecosistema digital más seguro, resiliente e inclusivo.
“La estrategia posiciona al país como referente en la región al incorporar estándares internacionales, buenas prácticas y mecanismos sostenibles para la protección de infraestructuras críticas, el desarrollo de capacidades técnicas y humanas, y la promoción de una cultura de seguridad digital”, explicó.
Explicó que estas acciones forman parte de la Agenda Digital, que impulsa la transformación digital del Paraguay, promoviendo la mejora de la competitividad de la economía nacional y de la calidad de los servicios públicos ofrecidos a la ciudadanía.
Siga informado con: Peña destaca un Paraguay seguro a través de coordinación entre instituciones
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.