Hay algo sutil ocurriendo en las organizaciones, y quizá aún no estemos prestando la debida atención. La inteligencia artificial no solo está transformando procesos, está transformando la forma en que pensamos. Vivimos en una era en la que delegar tareas a algoritmos ya casi se ha vuelto natural.
Pedimos a los sistemas que escriban, analicen, recomienden, prioricen. Ganamos velocidad, escala y eficiencia. Pero, junto con estos avances, comienza a surgir una pregunta incómoda: ¿qué ocurre con nuestra capacidad de juzgar cuando nos acostumbramos a no juzgar?
A esto lo llamo riesgo a la soberanía cognitiva.
No se trata de resistencia a la tecnología. Al contrario. Se trata de comprender que, cuanto más sofisticadas se vuelven las herramientas, mayor debe ser nuestra madurez en su uso. Estudios recientes indican que entre el 60 % y el 70 % de las actividades laborales poseen algún potencial de automatización. Esto no significa la sustitución completa de las personas, sino la redistribución del esfuerzo cognitivo. Parte de lo que antes exigía reflexión humana pasa a ser procesado por sistemas estadísticos. El Foro Económico Mundial estima que aproximadamente el 42 % de las tareas empresariales pueden ser automatizadas en el corto plazo. Sin embargo, existe una diferencia crucial entre automatizar procesamiento y automatizar discernimiento. La IA procesa datos con una eficiencia impresionante. Pero juzgar implica contexto, valores, ambigüedad y responsabilidad; dimensiones que siguen siendo profundamente humanas.
Y aquí reside el punto sensible. Cuando empezamos a aceptar respuestas automatizadas sin el debido escrutinio, dejamos de ejercitar músculos cognitivos esenciales: formular hipótesis, cuestionar premisas, evaluar sesgos, sustentar argumentos. La externalización del esfuerzo mental puede parecer inofensiva a corto plazo, pero, a mediano plazo, erosiona la capacidad crítica de los equipos. Y existe además un desajuste silencioso dentro de las empresas. Investigaciones muestran que los colaboradores utilizan herramientas de IA en una intensidad mayor de la que muchos ejecutivos imaginan. La tecnología ya está presente en el flujo decisorio cotidiano, muchas veces sin una gobernanza estructurada.
Esto crea un riesgo operativo real: las decisiones son influenciadas por sistemas cuyo funcionamiento no siempre es plenamente comprendido.
No es un problema tecnológico. Es un problema de liderazgo.
El primer riesgo es la atrofia del pensamiento crítico. Cuanto menos practicamos el juicio, más dependientes nos volvemos de las recomendaciones automatizadas. El segundo riesgo es la opacidad. Los modelos algorítmicos no son neutros; cargan sesgos estadísticos y limitaciones estructurales. Delegar decisiones sin comprender estos límites amplía riesgos regulatorios, reputacionales y estratégicos. El tercer riesgo es la dilución de la responsabilidad. Cuando “fue el algoritmo” se convierte en justificación, se debilita la cadena de accountability. Y ninguna organización sostenible puede operar sin claridad de responsabilidad humana. Por lo tanto, la cuestión central no es si debemos usar IA. La cuestión es cómo utilizarla sin renunciar a nuestra autonomía intelectual. Esto exige intencionalidad estratégica.
En la Fundação Dom Cabral, sostenemos que la IA no es solo un tema tecnológico, sino una pauta de consejo, y contamos precisamente con un programa de IA para consejos. El programa Foresight, Tech & IA en la Sala del Consejo capacita a consejeros, CEOs y ejecutivos C-Level para comprender y liderar estas transformaciones, conectando tecnologías (digitales y no digitales), ética y estrategia para promover crecimiento sostenible, generación de valor y perennidad organizacional.
La IA es una herramienta poderosa, pero sin una estrategia que proteja y refuerce la soberanía cognitiva, las organizaciones corren el riesgo de perder competencia crítica y capacidad de innovación autónoma en sus operaciones y cadena de valor.
Los líderes visionarios deben escuchar tanto los datos como el juicio humano, gobernar la colaboración entre mente humana y máquina, en lugar de abdicar de ella. Solo así transformaremos la promesa de productividad en ventaja sostenible, sin renunciar a la autonomía intelectual que constituye la base del liderazgo responsable, exactamente como lo defendemos en la Fundação Dom Cabral
En la Cámara de Senadores, un grupo de legisladores presentó un proyecto de ley que regula y promueve la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (IA). Los proyectistas son los senadores Basilio Núñez, Natalicio Chase, José Ledesma, Arnaldo Samaniego, Javier Zacarías Irún, Juan Carlos Galaverna Ortega y Mario Varela.
El líder de la bancada oficialista, Natalicio Chase, explicó a La Nación/Nación Media que la inteligencia artificial puede ser peligrosa, aclarando que no necesariamente lo es por sí misma. “Su peligrosidad depende de cómo se diseña, se usa y se regula”, expresó. Mencionó que los principales riesgos están en el uso indebido y malicioso de parte del que ponga en uso este sistema. Sumado a la desinformación de la gente. Además, puede reemplazar muchos trabajos.
“Por eso hemos presentado en Paraguay el 5 de mayo de 2025, una propuesta legislativa que establece un marco legal integral y detallado, que aborda tanto los beneficios como los riesgos de la inteligencia artificial, y propone medidas para que su uso no sea peligroso”, mencionó. El legislador indicó que la iniciativa propone mecanismos para prevenir y mitigar estos riesgos, clasifica tipos de riegos, defiende derechos de personas afectadas, además de una adecuada supervisión estatal.
nes similares que son aplicadas en la Unión Europea, basadas en riesgos y derechos fundamentales. “La Unión Europea ha aprobado una ley que toma la forma de reglamento integral sobre IA, que busca regular esta según sus riesgos, clasificando las herramientas de IA en tres categorías: de riesgo inaceptable, de alto riesgo y de riesgo bajo o mínimo para la seguridad de las personas, adaptando la futura normativa e integrándola a la regulación actual (sobre protección de datos personales, nuevas tecnologías y/o derecho de autor, entre otras)”, precisó.
Ventajas y desafíos del uso de la inteligencia artificial en la salud y la educación
Compartir en redes
En este diálogo con El Gran Domingo de La Nación, la doctora en Ciencias Margarita Ruiz y la doctora en Educación Viviana Sofía Sánchez hablan desde sus respectivas disciplinas sobre las posibilidades y los dilemas que plantea una tecnología disruptiva como la inteligencia artificial, que está cambiando paradigmas en diversos campos.
Por Jimmi Peralta
Fotos Néstor Soto / Archivo
El procesamiento de datos a través de instrumentos marca una forma avanzada de gestionar la información. Es preciso advertir, no obstante, que este fenómeno no es nuevo, pues el desarrollo de modelos computacionales casi un siglo atrás abrió un camino para la implementación de prácticas y extendió los límites a lugares impensados.
Este universo de posibilidades que brinda la tecnología del presente no solo está en el análisis y el procesamiento, sino también en la categorización y el registro, que se multiplicaron en escala y especificidad.
Margarita Ruiz, doctora en Ciencias y decana de la Facultad de Informática de la Universidad Comunera (Ucom)
La aparición de la inteligencia artificial abrió un nuevo mundo, donde desde algoritmos pueden ser interpretadas las bases de datos de manera muy compleja.
Esta tecnología se plantea en el presente no solo como herramienta para la producción, sino como facilitadora del trabajo de lo humano. Tal es el caso del proyecto “Inteligencia artificial para la salud mental. Identificación y seguimiento de pacientes con criterios de riesgo”, impulsado desde la Universidad Comunera (Ucom) y financiada por el Consejo Nacional de Ciencia y Tecnología (Conacyt), que actualmente se encuentra en ejecución.
IDENTIFICACIÓN Y SEGUIMIENTO
Este primer proyecto tiene como objetivo desarrollar un sistema computacional que permita integrar técnicas de inteligencia artificial e inteligencia de negocios para realizar la identificación y seguimiento de pacientes con criterios de riesgo en la base de datos de pacientes del Centro de Salud Mental del Instituto de Previsión Social (IPS).
–¿Cómo nace la idea de este proyecto?
–El proyecto se originó como parte del diplomado en Data Analytics en la Universidad Comunera (Ucom), donde Gustavo González, funcionario del Centro de Salud Mental del IPS (CSMIPS), desarrolló una solución basada en inteligencia artificial para identificar y monitorear a los pacientes que necesitan un seguimiento más intensivo con el fin de que estos puedan acceder siempre a sus consultas con el profesional psiquiatra.
–¿Qué requerimientos encontraron en particular en el Centro de Salud Mental del IPS?
–El CSMIPS cuenta con una base de datos estructurada de todos sus pacientes y las consultas realizadas, pero no cuenta con un sistema que organice esa información y facilite el análisis y la toma de decisiones por parte del profesional médico y administrativo. En este proyecto proponemos la creación de un datawarehouse para el CSMIPS, que facilite la inteligencia del negocio mejorando la generación de reportes, dashboards y análisis avanzados. Luego, esta base de datos servirá para alimentar al sistema predictivo generando información valiosa y anticipando escenarios clave para la toma de decisiones.
El sistema basado en inteligencia artificial servirá para identificar y monitorear a los pacientes que necesitan un seguimiento más intensivo
ANONIMIZACIÓN
–¿Podrías describirnos en qué consiste el trabajo de campo con los profesionales de la salud y cómo llevan a planificar eso en un escenario de soluciones?
–El proyecto se desarrolla en el CSMIPS y en la Ucom. Establecemos reuniones periódicas con los profesionales médicos, administrativos, profesionales del área de tecnología e investigadores para relevar la información que necesitamos en el desarrollo del proyecto. Además, en colaboración con la Gerencia de Tecnología del IPS hemos establecido un protocolo de acceso a los datos, el cual fue aprobado por el Comité de Ética del IPS. Dado que los datos contienen información de salud protegida, se aplican estrictos mecanismos de seguridad y anonimización conforme a normativas nacionales e internacionales de protección de datos personales. Solo personal autorizado tendrá acceso a los datos en su formato original y los investigadores solo podrán trabajar con datos anonimizados. Esto garantizará que no sea posible la identificación de los pacientes. Los resultados obtenidos en cada etapa del desarrollo del proyecto son validados por los profesionales de salud y de tecnología del IPS, según corresponda. Además, periódicamente será enviado un reporte al Comité de Ética informando sobre los avances del proyecto.
–¿Cómo se aplicará la IA a este proyecto?
–El proyecto usa la inteligencia artificial Procesamiento de Lenguaje Natural (PLN) para el análisis de textos extraídos de la base de datos de historias clínicas de pacientes del CSMIPS. A partir de la información extraída, se podrán entrenar distintos modelos predictivos dependiendo del objetivo del análisis, tales como la identificación de pacientes de riesgo, clasificación de patologías, entre otros objetivos.
–¿Qué soportes en hardware se necesitarán en IPS una vez concluido el desarrollo y quién será el responsable del manejo?
–Una vez finalizado el estudio, el sistema será administrado por la Gerencia de Tecnología del IPS. Para su funcionamiento, se requerirá un servidor dedicado en dicha gerencia, el cual estará conectado al CSMIPS a través de fibra óptica, garantizando un acceso rápido y seguro a los datos. Además, será necesario contar con las correspondientes licencias de software de Business Intelligence (BI) para la implementación del sistema de análisis de datos. Como parte del compromiso asumido, se llevarán a cabo capacitaciones especializadas para el personal del IPS, asegurando que puedan administrar, operar y mantener el sistema de manera eficiente. Esto permitirá la continuidad operativa y la optimización del uso de la plataforma en el tiempo.
Solo personal autorizado tendrá acceso a los datos para salvaguardar el anonimato de los pacientes
ETAPAS
–¿Cuál es el cronograma que lleva adelante el proyecto y hasta cuándo se extendería?
–El cronograma del proyecto se desarrolla en varias etapas clave. La primera etapa es de análisis y planificación, en la que se llevó a cabo un relevamiento de los requerimientos necesarios para el desarrollo e implementación del proyecto. Se realizó una revisión sistemática sobre la situación actual de la salud mental en Paraguay, siguiendo la metodología PRISMA, que incluyó la validación y selección de estudios por pares. Se gestionó formalmente la autorización ante las autoridades del IPS para la ejecución del proyecto en la institución. La segunda etapa es el desarrollo y modelado (etapa actual). Se está trabajando en el diseño del datawarehouse, pieza fundamental para el almacenamiento y análisis de datos. La implementación está prevista para mayo de 2025. Paralelamente, se están desarrollando los modelos predictivos para el análisis de información clínica y de salud mental.
–¿En qué periodo estaría operativo el sistema?
–La tercera etapa es la implementación (agosto - diciembre de 2025), la generación de reportes, dashboards y análisis avanzados. Posteriormente, se realizarán pruebas y experimentos para validar los resultados obtenidos, asegurando su confiabilidad. Durante el último trimestre del año, se llevarán a cabo ajustes y correcciones necesarias para optimizar el sistema. La cuarta etapa será de capacitación y difusión (2026). A partir de 2026, se enfocará en la capacitación del personal involucrado en el uso de las herramientas desarrolladas. Se realizará la difusión de los resultados del proyecto a nivel institucional y académico, promoviendo su impacto en el ámbito de la salud mental en Paraguay. Con este cronograma, se espera que el proyecto esté completamente implementado y operativo para finales de 2025, con actividades de capacitación y difusión durante 2026.
–¿Qué potencialidad se observa en el país para la implementación de nuevas tecnologías como esta iniciativa?
–Paraguay tiene una gran oportunidad para implementar tecnologías de IA en salud. Con el apoyo adecuado de instituciones académicas, del sector salud y del Gobierno, se podría desarrollar un sistema de análisis de historias clínicas que contribuya significativamente al diagnóstico temprano y la toma de decisiones médicas. Sería interesante explorar alianzas con hospitales, laboratorios y centros de investigación para hacer pruebas piloto y demostrar la viabilidad del enfoque.
“LA IA NO REEMPLAZA LA DIMENSIÓN HUMANA DE LA ENSEÑANZA”
Viviana Sofía Sánchez, doctora en Educación
Así como en su momento el uso de computadoras y celulares en el aula generó un arduo debate, que se clausuró de manera casi coactiva con el advenimiento de la pandemia y las condiciones de virtualidad que impuso, en la actualidad se abre un nuevo frente con la irrupción de la inteligencia artificial.
En esta ocasión, sin embargo, la controversia adquiere mayor complejidad al plantear dilemas no solo de soporte técnico, sino también éticos, pedagógicos y hasta de privacidad.
En este contexto, la doctora en Educación Viviana Sofía Sánchez se encuentra desarrollando el proyecto de investigación “La inteligencia artificial desafía los sistemas educativos”, una propuesta reflexiva y divulgativa respecto a este nuevo partícipe de la vida humana que aún enfrenta mucha resistencia en amplios sectores, en especial en lo relativo a la generación de contenido y derechos de autor.
La doctora Sánchez plantea con su proyecto generar espacios donde se puedan pensar colectivamente problemas éticos no menores como si ¿está bien o permitiremos que un niño sea educado por una máquina?
–¿Hay una estimación del nivel de incidencia/participación que tiene o podría tener la IA en el proceso escolar actualmente?
–La inteligencia artificial proporciona datos y desde ese contexto es importante analizar y reflexionar. La incidencia de la IA en el proceso escolar es creciente, pero aún desigual. En entornos con mayor acceso a tecnología se observa su uso en tutorías automatizadas, evaluación de desempeño y personalización del aprendizaje. En sistemas con menor infraestructura, su impacto es limitado. Sin embargo, en el mediano plazo la IA podría integrarse en la planificación educativa, diagnóstico de dificultades de aprendizaje y formación docente.
NUEVA COYUNTURA
–¿Para qué roles están formados nuestros docentes del sistema educativo y qué se esperaría que realicen dentro de esta nueva coyuntura de las IA?
–Actualmente los docentes están formados principalmente para la transmisión de conocimientos y la gestión del aula. En la nueva coyuntura de la IA, se espera que desarrollen habilidades para interpretar datos de aprendizaje generados por la tecnología, guiar el pensamiento crítico en el uso de herramientas digitales y promover el aprendizaje autónomo. Además, su rol como mediador y acompañante del proceso educativo cobra aún más relevancia, ya que la IA no reemplaza la dimensión humana de la enseñanza.
–¿Qué modo de intervención se espera que tengan las IA dentro de la formación de los estudiantes?
–Se espera que la IA actúe como un apoyo en la personalización del aprendizaje, adaptando contenidos al ritmo y estilo de cada estudiante. También puede utilizarse en el análisis de datos educativos para identificar dificultades en tiempo real y recomendar estrategias de enseñanza. En áreas como la enseñanza de idiomas o matemáticas, la IA ya ofrece herramientas interactivas que refuerzan el aprendizaje autónomo.
–¿Qué experiencias relevantes se tienen a nivel internacional en este sentido?
–En Finlandia y Singapur, la IA se emplea en sistemas de tutoría inteligente y análisis de rendimiento estudiantil. En Estados Unidos, plataformas como Khan Academy han incorporado IA para ofrecer tutorías personalizadas. En China, se han desarrollado sistemas de reconocimiento facial y análisis de emociones para evaluar el compromiso de los estudiantes en clase, aunque estos plantean debates éticos.
BRECHAS DIGITALES
–¿Qué lugar ocupa la problemática de las brechas digitales en este debate?
–Estos debates son fundamentales para el diseño de futuras políticas públicas. Aunque la tecnología no esté aún distribuida equitativamente, la reflexión sobre su impacto permite anticipar regulaciones, estrategias de formación docente y modelos pedagógicos que faciliten su integración cuando la infraestructura lo permita.
–¿Qué disciplinas se ven convocadas a estos espacios de reflexión y cómo se sistematizarían los aportes?
–Se requiere una perspectiva interdisciplinaria que involucre educación, psicología, filosofía, informática, ética y sociología. La sistematización de aportes puede realizarse mediante investigaciones, foros educativos y documentos de políticas públicas que sirvan de base para futuras decisiones.
–¿Qué diferencia hay con respecto a toda la discusión generada en torno al uso de celulares y computadoras en el aula?
–La incorporación del celular y la computadora en las aulas también generó debates sobre su impacto en la educación. Sin embargo, la IA plantea una diferencia fundamental: su capacidad para intervenir activamente en el proceso de enseñanza y aprendizaje, no solo como una herramienta de consulta o comunicación. Por eso, si bien hay paralelismos, el debate sobre la IA es más profundo y requiere una discusión específica sobre sus implicaciones a nivel pedagógico y social.
Profesor de Liderazgo y Personas de la FDC, Brasil.
Director del Centro de Investigación en Liderazgo
Una de las principales autoras en los estudios sobre la confianza en las empresas modernas, Rachel Botsman, defiende la necesidad de desarrollar nuevas estrategias y estructuras que posibiliten la construcción de un entorno digital más transparente y seguro. Ella enfatiza que, al comprender y adaptarse a esta nueva dinámica, individuos, organizaciones y gobiernos pueden aprovechar las oportunidades de la era digital mientras mitigan sus desafíos.
Puede parecer utópico, pero la relación entre confianza e inteligencia artificial es compleja y multifacética, exigiendo de los líderes un enfoque que combine rigor ético, transparencia e innovación. Estudios como los de Deloitte y el MIT demuestran que la confianza es un elemento indispensable para la aceptación y el éxito de las tecnologías de IA. Así, invertir en políticas de gobernanza y en una comunicación clara no es solo una estrategia de mitigación de riesgos, sino también una oportunidad para transformar la percepción de los consumidores y posicionar a la organización como referente en innovación responsable.
En el escenario global, la investigación Global AI Survey realizada por Deloitte en 2022 indicó que el 73 % de los líderes empresariales creen que las prácticas éticas y transparentes son esenciales para ganar y mantener la confianza de los consumidores. Según el informe, las organizaciones que invierten en gobernanza de datos y en la divulgación de sus procesos de toma de decisiones automatizados no solo logran reducir el escepticismo, sino que también amplían sus oportunidades de mercado. Este enfoque ético tiende a generar una ventaja competitiva, ya que los consumidores valoran a las empresas que demuestran compromiso con la responsabilidad social y la seguridad digital.
Otro estudio relevante, llevado a cabo por el Instituto de Tecnología de Massachusetts (MIT), constató que el 67 % de los ejecutivos consideran la transparencia de los algoritmos un factor crucial para el establecimiento de una relación de confianza con los clientes. La investigación, que abarcó empresas de diversos sectores, reveló que aquellas que adoptan procesos de auditoría interna y explican de manera clara cómo operan sus soluciones de IA presentan menores índices de resistencia por parte de los usuarios. La divulgación de las metodologías y de los criterios utilizados en los algoritmos no solo contribuye a la comprensión de los procesos automatizados, sino que también fortalece la imagen de una empresa comprometida con la innovación responsable.
En nuestro MBA de la Fundación Dom Cabral, esta temática es abordada, discutida y revisada en sus implicaciones para el liderazgo y la ética. Para los ejecutivos, la tarea de construir esta confianza pasa por la implementación de medidas que van desde la capacitación de los equipos hasta la creación de canales de comunicación que aclaren dudas y refuercen los compromisos con la ética. La transparencia en la divulgación de los criterios de funcionamiento de los algoritmos y la adopción de prácticas de auditoría interna son pasos fundamentales para mitigar los riesgos percibidos por los usuarios. De esta manera, la IA deja de ser vista como una amenaza o un misterio y se convierte en una herramienta de valor agregado, capaz de impulsar resultados y promover una cultura de innovación sostenible y éticamente responsable.
Este desafío también está en el centro de las investigaciones que estamos desarrollando en la FDC. ¡Creemos que esta es una temática de futuro y de construcción de futuro!