Supermercados, bancos, empresas textiles y agropecuarias de nuestro país ya usan los beneficios de la inteligencia artificial para mejorar sus desempeños. Algunos expertos nacionales cuentan de la evolución de estos mecanismos que llegaron para quedarse. En el mundo se dice que el análisis de datos será la principal fuente de empleo en la próxima década. Aquí un panorama.

“Machine learning es el campo de la inteligencia artificial que busca desarrollar siste­mas que se autoconfiguran a partir de los datos”, expone el especialista Sebastián Grillo. “Este ha conseguido desarrollar el ChatGPT, algu­nos fármacos, la visión arti­ficial, entre muchísimas otras aplicaciones”, cuenta. “Es un campo de décadas de inves­tigación, pero ahora con los hardwares más potentes está teniendo un desarrollo más acelerado”, comenta.

Como ejemplo apunta que bancos y telefónicas usan machine learning para anali­zar sus datos hace años y tam­bién hay empresas que ofre­cen servicios de análisis de datos con machine learning como Dato Solutions.

Invitación al canal de WhatsApp de La Nación PY

El ingeniero José Luis Váz­quez, director del Laborato­rio de Análisis y Modelado Basado en Datos de la Facul­tad Politécnica de la Univer­sidad Nacional de Asunción (FPUNA), apunta que “el machine learning (aprendi­zaje automático) es una rama de la inteligencia artificial que se basa en la idea de que las máquinas pueden apren­der de los datos, identificar patrones y tomar decisiones con mínima intervención humana. Utiliza algoritmos que iterativamente aprenden de los datos, permitiendo que los modelos mejoren su ren­dimiento a medida que se exponen a más información”.

Ingeniero José Luis Vázquez, director del Laboratorio de Análisis y Modelado Basado en Datos de la FPUNA

APLICACIONES EN PARAGUAY

Según reseña, en nuestro país el machine learning se está empezando a utilizar en varios sectores, incluyendo la agricultura, con la imple­mentación de algoritmos para analizar condiciones del suelo, clima y otros fac­tores para mejorar los ren­dimientos de las cosechas y optimizar los recursos; la salud, con el uso de técnicas de aprendizaje automático para diagnosticar enferme­dades a partir de imágenes médicas, analizar tendencias de salud pública y optimizar la gestión hospitalaria; banca y finanzas, a través de la apli­cación en sistemas de detec­ción de fraudes, análisis de riesgo crediticio y persona­lización de servicios finan­cieros a través del análisis de datos de los clientes.

Asimismo, ya se está utili­zando en el sector de la edu­cación para el desarrollo de sistemas adaptativos de aprendizaje que ajustan el contenido educativo según las necesidades y el progreso de cada estudiante, así como en el comercio y servicios para el análisis de comportamiento del consumidor y la optimi­zación de la cadena de sumi­nistro, además de la persona­lización de la experiencia del cliente.

Vázquez resume que esta herramienta tiene múltiples aplicaciones y se puede uti­lizar prácticamente en cual­quier área o tarea en la que el ser humano está involucrado.

Por su parte, el doctor en computación aplicada Diego Stalder expone que “los ban­cos usan algoritmos, toman decisiones si dan o no el prés­tamo analizando el riesgo de las inversiones. Estas pre­dicciones a futuro están ayu­dadas por machine learning para tomar decisiones. Es una tendencia que ya se ve aquí en el país en los prin­cipales bancos. También se hace predicción de fraudes para poder bloquear las ope­raciones.

Diego Stalder, doctor en computación aplicada

Stalder puntualiza que “cada vez más se aplica en las investigaciones, sobre todo las empresas que manejan muchos datos ya tienen divi­siones de análisis de datos, bancos especialmente, tengo colegas trabajando allí, prin­cipalmente en multinacio­nales, otras empresas no sé qué tanto”, mencionó. “De a poquito el mercado les está llevando a usar este tipo de sistemas. Todas de alguna forma directa o indirecta están usando modelos”, apuntó.

Según la cadena británica BBC, hay tres áreas en las que ya es omnipresente: 1) En el diagnóstico, monitoreo y tra­tamiento de enfermedades; 2) Recopilación de datos que ayudan al usuario a llegar a un lugar o a conocer lo que los clientes de un determinado mercado necesitan y 3) Rup­tura de barreras idiomáticas al permitir hacer traduccio­nes automáticas.

MODELOS MATEMÁTICOS

Los modelos matemáticos son claves en el mundo del conocimiento, en el Gobierno y en la empresa actual, en los que se los usa para resolver problemas del medioam­biente, el agro, la salud, por citar algunos ejemplos.

Por ello, para el diseño de políticas públicas no solo es necesario disponer de datos confiables, sino también es necesario que el trabajo sea multidisciplinario. En este aspecto, se están cada vez más teniendo en cuenta modelos matemáticos y estadísticos para la toma de deci­siones, ya que estos pueden ayudar a un mejor entendi­miento, hacer predicciones o considerar escenarios de estudio que no son posibles de hacer en forma real. Pero, a su vez, es necesario tra­bajar de forma cercana con expertos, de modo de gene­rar herramientas confiables de análisis.

Las matemáticas pueden ayudar al desarrollo de la salud, biología, transporte, infraestructura, ambiente, desastres naturales, mejora de la producción, desde modelos que permiten hacer proyecciones que facilitan el análisis de un sinnúmero de problemas.

Esa es la propuesta del Laboratorio de Análi­sis y Modelado Basado en Datos de la Facultad Politécnica de la UNA, cuya idea es “posicio­narlo frente a la industria, el Gobierno y las organizaciones para encontrar solu­ciones a pro­blemas cen­trados en datos, en colabora­ción con la academia y la industria. La experiencia en inves­tigación de los profesores abarca la predicción de desa­rrollo de epidemias, la toma de decisiones basada en datos, la implementación de inteli­gencias artificiales en múlti­ples sectores, la calificación crediticia, la evaluación de programas, la mejora de pro­cesos y más”, indicó José Luis Vázquez, director de la men­cionada dependencia.

“Los profesores y los estu­diantes de esta iniciativa conocen bien los métodos analíticos y estadísticos uti­lizados tanto en investiga­ción como en la industria, así como técnicas como el apren­dizaje automático, las redes neuronales y el aprendizaje profundo de cara a ofrecer servicios que mejoren la gestión y el análisis de datos en la sociedad”, expuso.

ALTA DEMANDA LABORAL

La clave del mundo del trabajo pasaría por esta área, que cre­cerá un 40 % en su demanda de empleos. Todos los pronós­ticos dicen que provocará una verdadera transformación de la mano de obra tal y como la conocemos.

Para ello se piden conocimientos relevantes en el procesa­miento del lenguaje natural, ingeniería rápida y Python, que se pueden aprender online en academias de diverso presti­gio en el mundo.

“Un programa bootcamp puede ser una buena opción. Suelen ser más cortos, más baratos y más flexibles que un programa de grado tradicional, pero pueden proporcionar un aprendi­zaje más sustancial que un curso o un certificado más corto. Además, algunos bootcamps ofrecen servicios profesionales y oportunidades de tutoría, orientando a los estudiantes a lo largo de todo el proceso de búsqueda de empleo, desde la creación de redes hasta las negociaciones salariales”, reportó el periódico Infobae.

Los bootcamps ofrecen una alternativa práctica y flexible para adquirir competencias en IA, con programas que incluso incluyen tutorías y orientación laboral. Gracias a esto los estudiantes fueron contratados en empresas de todos los tamaños y sectores, entre las que se destacan empresas tec­nológicas de primer nivel como Amazon y Google. La dura­ción media de los programas oscila entre ocho semanas y nueve meses, y los precios varían entre unos pocos miles y casi 15.000 dólares.

DÓNDE SE APLICA

También fue sorprendente el uso en los juegos donde ayudaron a resolver cubos de Rubik en un tiempo sorprendente en una carrera que tiene como hito la victoria del IBM Deep Blue sobre el gran maestro ruso Garry Kasparov en una histórica partida de ajedrez en 1997. Hoy es casi imposible ganarle a una máquina.

En este sentido, explica José Luis Espinoza, científico de datos de BBVA México: “Ahora podemos hacer lo mismo que antes, pero mil millones de veces más rápido. Los algoritmos son capaces de pro­bar 500.000 millones de veces una misma combinación de datos hasta darnos el resultado óptimo. Y lo hacen en cuestión de horas o minutos, mientras que antes harían falta semanas o meses. La dife­rencia con técnicas anteriores está en su capacidad para adaptarse a los cambios en los datos a medida que van entrando en el sistema”.

Otra clave es el reinforcement learning, que se traduce como “apren­dizaje por refuerzo”, que es cuando una máquina aprende por medio de prueba y error hasta alcanzar la mejor manera de completar una tarea dada. También tienen un aprendizaje supervisado, cuando se entrena a las máquinas con datos etiquetados y el aprendizaje no supervisado, que es cuando buscan similitudes, es decir, los algo­ritmos buscan parecidos que se pueden agrupar.

Déjanos tus comentarios en Voiz