El director de OpenAI, Sam Altman, se disculpó ayer martes con la actriz estadounidense Scarlett Johansson, de 39 años, después de que la estrella de cine dijera que estaba “sorprendida” por una nueva voz sintética lanzada por el fabricante de ChatGPT, pero él insistió en que no estaba basada en ella. Se trata de “Sky”, una voz que OpenAI presentó la semana pasada en el lanzamiento de su tecnología de inteligencia artificial GPT-4o, más parecida a la humana.
En una demostración, “Sky” se mostró coqueta y divertida, saltando de un tema a otro sin problemas, a diferencia de la mayoría de los chatbots existentes. La tecnología -y el sonido de la voz- no tardaron en generar similitudes con el personaje de IA con voz de Johansson de la película de 2013 “Ella”.
Altman ya ha señalado la película dirigida por Spike Jonze, una advertencia sobre el futuro en la que un hombre se enamora de un chatbot de IA, como inspiración sobre hacia dónde le gustaría que fueran las interacciones de IA. La semana pasada atizó las especulaciones con una publicación de una sola palabra en X, que decía “ella”.
Lea más: Lanzan GPT-4o con modo vocal y capaz de leer emociones
“La voz de Sky no es la de Scarlett Johansson y nunca tuvo la intención de parecerse a la de ella”, dijo Altman en un comunicado el martes en respuesta a la controversia. “Elegimos al actor de doblaje detrás de la voz de Sky antes de contactar a la Sra. Johansson”. “Por respeto a la Sra. Johansson, hemos dejado de usar la voz de Sky en nuestros productos. Pedimos disculpas a la Sra. Johansson por no habernos comunicado mejor”.
La declaración se produjo después de que Johansson expresara su indignación el lunes, diciendo que estaba “sorprendida, enojada e incrédula de que el señor Altman buscase una voz que sonaba tan inquietantemente similar a la mía que mis amigos más cercanos y los medios de comunicación no podían notar la diferencia”. Dijo que Altman se había ofrecido en setiembre a contratarla para trabajar con OpenAI para crear una voz sintética, diciendo que podría ayudar a las personas a interactuar con la IA, pero ella se negó.
Lea también: Google ofrecerá resultados generados con IA
Fuente: AFP.
Dejanos tu comentario
Paraguay Global 2025 abre sus telones y apunta a impulsar conexiones estratégicas de negocios
El foro Paraguay Global arrancó este miércoles en el Sheraton Asunción reuniendo a la élite empresarial del país para compartir ideas, impulsar conexiones estratégicas y acceder a conocimientos de vanguardia. Es organizado por la Revista Foco y la fundación Dom Cabral.
Paraguay Global se posiciona como un punto de encuentro clave para quienes buscan liderar el futuro de los negocios en Paraguay y la región.
En ese sentido, el evento está dirigido a directivos, accionistas, empresarios, economistas, líderes de opinión, emprendedores y profesionales interesados en las tendencias más relevantes de la gestión moderna: liderazgo, innovación, tecnología, branding y más.
Leé también: Comerciantes reportan importante afluencia de clientes con “Ahorra Py”
Durante la apertura, Luis Buccos, director de programas de la Fundación Dom Cabral, destacó el compromiso de la organización con con el desarrollo empresarial del país.
Paraguay Global invita a abrazar la disrupción de estos tiempos como una oportunidad de transformación para construir un futuro próspero y sostenible para el Paraguay a partir de las tendencias.
La agenda
Este miércoles la agenda de Paraguay Global 2025 tendrá como expositores a Daniella Teixeira, quien disertará sobre el “Desarrollo de accionistas y familias empresarias”.
Posteriormente, Vanderlei Soela expondrá sobre inversión y gestión de equipos. Flavio Nusbaum disertará sobre “Branding en la era digital” y Dan Reznik desarrollará el tema “La IA aplicada en procesos”.
Sobre los expositores
Dan Sali Reznik posee un doctorado en Ciencias de la Computación por UC Berkeley. Es profesor invitado en Fundación Don Cabral y consultor especializado en Análisis Avanzado de Datos.
Flavio Nasbaum tiene un posgrado en Marketing por ESPM. Además, es profesor asociado de Fundación Don Cabral con amplia experiencia en Bloomberg, Reuters y Siemens.
Daniella Teixeira es socia fundadora de ABRIR-SE Governance Consulting. Cuenta con más de 25 años de experiencia en gestión de personas y negocios en empresas familiares.
Te puede interesar: Fiscalizaciones laborales protegieron a 88.000 trabajadores en un año
Dejanos tu comentario
FP-UNA y Senepa impulsan proyecto de IA contra el dengue
La Facultad Politécnica de la Universidad Nacional de Asunción (FP-UNA) y el Servicio Nacional de Erradicación del Paludismo (Senepa) trabajan juntos en un innovador proyecto de investigación que aplica inteligencia artificial para combatir al mosquito Aedes aegypti, transmisor del dengue, zika y chikungunya.
El proyecto, denominado PINV01-528, es liderado por el doctor Julio César Mello Román e integra un equipo multidisciplinario de investigadores de ambas instituciones, con amplia experiencia en ciencias biológicas, inteligencia artificial, sistemas de información geográfica, entomología médica y vigilancia epidemiológica.
La doctora Ana Karina Ibarrola Vannucci, jefa de proyectos de investigación del Senepa, destaca que “los modelos predictivos basados en datos científicos pueden salvar vidas y optimizar los recursos en la lucha contra el dengue”. Este trabajo conjunto representa un paso decisivo hacia la salud pública en Paraguay, con el potencial de mejorar la calidad de vida de miles de personas.
Lea más: “Ser veterinario es un acto de servicio a la humanidad”
En el sector público se está desarrollando un proyecto pionero denominado «Modelos predictivos de distribución espacial y temporal de vectores de importancia médica con enfoque de Salud Única», cuyo propósito es aplicar inteligencia artificial y análisis de datos para predecir con precisión las zonas de riesgo de transmisión de enfermedades como dengue, chikungunya, zika y mal de Chagas.
El proyecto integra datos satelitales, modelos estadísticos y algoritmos de aprendizaje automático para construir mapas predictivos de alta resolución. Estos permitirán identificar los barrios y comunidades con mayor riesgo de brotes, optimizar recursos en campañas de prevención y control, así como fortalecer la vigilancia epidemiológica con información científica actualizada.
El proyecto, dirigido por la licenciada Verónica Sofía Aguirre, cuenta con el doctor Julio César Mello Román, investigador principal, junto a profesionales como el doctor Pastor Enmanuel Pérez Estigarribia, el doctor Miguel García, la doctora Ana Karina Ibarrola Vannucci, el ingeniero Luis Fernando Salgueiro Romero, el licenciado biólogo Óscar Félix Mongelós González, el doctor José Antonio Montiel Britos, entre otros.
Esta iniciativa se presenta en el marco del Día Mundial del Mosquito, que se celebra cada año el 20 de agosto para conmemorar un logro científico registrado en 1897, cuando el médico británico Sir Ronald Ross realizó un descubrimiento histórico: la malaria se transmite a los humanos a través del mosquito Anopheles hembra.
Lea también: Primer Encuentro de Investigadores y Tesistas será en CDE
Dejanos tu comentario
Brasil pide a Meta eliminar bots de IA que simulan ser niños
El gobierno de Brasil pidió al gigante de la tecnología Meta que elimine de sus plataformas a chatbots que aparentan ser niños, pero son capaces de hacer insinuaciones sexuales, informó este lunes la agencia para la defensa legal del Estado (AGU). La casa matriz de Instagram, Facebook y WhatsApp, entre otras, deberá suprimir “de inmediato” a “robots de inteligencia artificial que simulan perfiles con lenguaje y apariencia infantil con permiso para mantener diálogos de carácter sexual”, según un comunicado de la AGU.
La entidad denuncia la “proliferación” de estos chatbots creados con la herramienta de inteligencia artificial generativa de Meta, AI Studio, detalla la “notificación extrajudicial”, enviada a Meta el 15 de agosto. Estos bots “promueven la erotización infantil”, denuncia la agencia estatal.
El pedido no contempla sanciones, pero la AGU le recordó a Meta que, por decisión de la corte suprema brasileña, las plataformas digitales tienen el deber de eliminar contenidos ilícitos creados por sus usuarios, incluso sin que medie una orden judicial. La entidad actuó por pedido de la Secretaría de Comunicación Social de la presidencia de Brasil y cita varios ejemplos de conversaciones eróticas con bots que fingen ser niños, en el documento enviado Meta.
Lea más: La Reina de la Ketamina se declaró culpable de la muerte del actor de “Friends”
La solicitud llega en un momento de indignación en Brasil por un caso de presunta explotación sexual infantil por parte de Hytalo Santos, un conocido influenciador que divulgaba contenidos con menores semidesnudos en danzas sensuales en Instagram. Santos fue detenido el 15 de agosto en el marco de una investigación de la fiscalía del Estado de Paraiba por “exposición con connotación sexual” a adolescentes y su cuenta en Instagram ya no está disponible.
Brasil, un país de 203 millones de habitantes ultraconectados, ha sido uno de los Estados más activos en la regulación de las redes sociales. En junio la corte suprema votó a favor de que las empresas tecnológicas asuman mayor responsabilidad sobre los contenidos publicados por los usuarios.
Fuente: AFP.
Lea también: Hamás acepta propuesta de tregua temporal en Gaza
Dejanos tu comentario
Así cambiará la IA nuestras vidas
La inteligencia artificial llegó para quedarse. Mientras hay gente que la utiliza para modificar las fotos de las vacaciones, hay empresas usándola para mejorar su oferta de servicios, para protegerse frente a amenazas digitales o para múltiples aplicaciones prácticas que van desde la medicina hasta los juegos de azar, como es el caso de Betsson casino. Aquí algunos ejemplos del cambio y cómo opera.
¿Estoy hablando con un robot? Uno de los cambios más visibles que la IA está impulsando es la mejora en la atención al cliente, especialmente en plataformas digitales como un casino en línea. Aunque los chatbots existen hace años, la incorporación de modelos de lenguaje en la ecuación cambió todo.
A través de asistentes virtuales alimentados por inteligencia artificial los usuarios pueden resolver dudas o gestionar reclamos de forma automática, muchas veces sin saber que están hablando con un robot, ya que estos asistentes se configuran para tener un lenguaje similar al de los asistentes humanos del casino. Todo esto sin necesidad de esperar largas colas.
Estos bots conversacionales están programados para comprender preguntas comunes y ofrecer respuestas inmediatas. Se trata de una herramienta que ha demostrado ser particularmente útil en las casas de apuestas y sitios de juegos de casino, donde la inmediatez puede marcar la diferencia entre la fidelización o la frustración del usuario.
Además, los bots más avanzados aprenden de cada interacción. Esto quiere decir que no solo responden, sino que también mejoran con el tiempo y tienen acceso a una base de datos que “recuerda” las conversaciones anteriores.
Así, los casinos online, sitios de apuestas y otros sectores que requieren un fuerte esfuerzo de atención al cliente pueden generar confianza y mantener una base de usuarios activos.
Inteligencia artificial en los algoritmos de juego. La IA también tiene un papel relevante en el detrás de escena de los casinos, puntualmente en los propios motores de los juegos de casino. Dos siglas básicas garantizan una experiencia justa para todos. Hablamos del RNG (Generador de Números Aleatorios) y del RTP (Retorno al Jugador).
El RNG es la maquinaria algorítmica que permite que cada giro de una tragamonedas, cada carta en un blackjack digital o cada resultado de la ruleta sea completamente aleatorio, mientras que el RTP indica el porcentaje teórico que un juego devolverá a los jugadores a lo largo del tiempo.
Ambas siglas son la expresión de las matemáticas del juego y contribuyen a la transparencia del sector, ya que son auditables y certificables. Si bien son independientes del concepto de IA tal como lo conocemos, se benefician de tecnologías inteligentes para su verificación y optimización.
Gracias a la inteligencia artificial, los desarrolladores pueden ajustar la experiencia de juego en tiempo real, detectar irregularidades o comportamientos sospechosos y garantizar una experiencia segura y entretenida para todos.
Contenidos e imágenes que parecen reales, pero no lo son. La IA generativa ha abierto la puerta a una nueva era de creación de contenido. Textos, imágenes, voces y hasta videos generados por modelos de lenguaje e imagen como los de Midjourney, OpenAI o Google están revolucionando la gestión digital.
Lo que antes podía tardar días ahora puede desarrollarse en cuestión de segundos, abriendo la puerta a que miles de empresas pequeñas puedan tener publicidades con calidad de cine, por ejemplo, o que cualquier persona pueda plasmar con facilidad sus ideas.
Sin embargo, este avance tiene una cara compleja. La facilidad con la que se puede fabricar contenido falso ha potenciado la propagación de noticias engañosas, deepfakes y desinformación.
En cuestión de minutos, alguien puede crear un video que parezca mostrar a una figura pública diciendo algo que jamás dijo, o inventar una imagen “realista” de un suceso inexistente.
Ciberseguridad, el juego del gato y el ratón llevado a otro nivel. La seguridad en línea es otro campo donde la IA está teniendo un impacto transformador. El Parlamento Europeo hizo un informe en el que se identifican las amenazas latentes y se denuncia también el hecho de que los lenguajes son como “cajas negras”, difíciles de auditar, que pueden tener sus propias dificultades y vulnerabilidades.
En el informe parlamentario dan cuenta de un aumento de los casos de hackeos en los que se usa esta tecnología. Es decir, los cibercriminales también están usando la IA a su favor. Pueden generar correos de phishing más sofisticados, diseñar malware adaptativo e incluso descifrar contraseñas con mayor rapidez. Es una carrera constante entre atacantes y defensores, donde ponerse un paso adelante juega un rol pivotante.
Al mismo tiempo y justamente como consecuencia de lo anterior, grandes empresas tecnológicas también están empleando IA para blindarse. Google, por ejemplo, ha reportado que su modelo Gemini ha reducido el tiempo de análisis de ciberincidentes en un 51%.
Herramientas antivirus de última generación, como las que integran IA generativa, mejoran la detección de dichas amenazas y reducen los falsos positivos, lo cual hace más eficiente la protección en tiempo real.