¿Escuchaste hablar de la división DeepMind de Google? ¿Y de la Inteligencia Artificial General (AGI)? Bueno, para que te enteres, ChatGPT de OpenAI y Gemini de Google son solo el iceberg de un desarrollo aún más profundo de las IA. En ese sentido, un equipo de investigadores de Google DeepMind y la Universidad de Stanford consiguieron crear "dobles digitales" de 1.052 personas con una precisión sorprendente a nivel personalidad, a través de solo dos horas de conversación con cada participante como método para conocerlos.
El experimento fue desarrollado por el estudiante de doctorado en Ciencias de la Computación de Stanford Joon Sung Park, y liderado por Tim Brooks, ex investigador de OpenAI y responsable de la creación de Sora. Brooks se unió al proyecto en 2024 y trabaja en colaboración con los equipos de Gemini (la IA generativa de Google), Veo (generador de videos) y Genie (creador de mundos interactivos).
La investigación se ha publicado en arXiv, aunque aún no ha sido revisada por pares, punto crucial para legitimar o no un proyecto. Es un tramo necesario porque actúa como filtro para comprobar la metodología utilizada y los resultados finales. Esto se hace por procedimiento científico, porque podría haber investigaciones que en sus conclusiones estiran la verdad al máximo y difunden algo que, finalmente, no es tan así como se afirma.
Para el procedimiento, los investigadores descartaron utilizar encuestas o datos demográficos, y en su lugar optaron por entrevistas cualitativas. Esto se debe a la convicción de Park, que después de participar en muchos programas de podcast, concluyó que son la forma más eficaz de conocer a alguien. Y parece que tan errado no estaba: los agentes de IA alcanzaron una precisión efectiva del 85%, superando por 14 puntos porcentuales a los modelos de predicción demográficos tradicionales.
“Podemos crear un agente de una persona -réplica de IA- que capte muchas de sus complejidades y su naturaleza idiosincrásica”, explicó el joven Park a New Scientist.
Para verificar las respuestas de las réplicas digitales, los investigadores sometieron tanto a los participantes como a sus dobles virtuales a una serie de pruebas dos semanas más tarde. Además del éxito, los resultados también dejaron entrever que, al repetir las pruebas, los humanos coincidieron con sus propias respuestas en apenas un 81% de los casos, lo que refleja la variabilidad de nuestra naturaleza.
En qué fallaron las IA
Por supuesto, ese 85% de exactitud deja por fuera el margen más difícil de captar de los detalles que hacen únicas a las personas. Entre los desaciertos, estos agentes no fueron capaces de replicar los comportamientos humanos que tienen más que ver con valores complejos como el sentido de justicia, en los que se involucran tanto la moralidad, la empatía, el contexto sociocultural y experiencias muy propias. Además, las decisiones y posturas de un humano en muchas oportunidades son altamente dinámicas. Cambian con las experiencias, las percepciones y las interacciones sociales.
Un agente de simulación no es lo mismo que un agente de IA generativa
Para entenderlo de forma sencilla, los agentes de simulación están diseñados específicamente para modelar comportamientos y situaciones en entornos controlados, su comportamiento sigue patrones. Por otro lado, los agentes de IA generativa pueden aprender y generar respuestas originales basadas en el contexto, crean contenido nuevo a raíz de su entrenamiento y tienen capacidad de adaptación.
Actualmente, algunas de las principales empresas que trabajan con agentes de simulación son:
- Nvidia, con su plataforma Omniverse, que permite crear agentes de simulación para entornos industriales y urbanos.
- Microsoft, con Project Bonsai para simulaciones robóticas y de sistemas autónomos.
- Unity Technologies, con su Unity Simulation que se usa tanto para videojuegos como para simulaciones industriales.
- Ansys, especializada en simulaciones de ingeniería y física
- Mathworks, con sus herramientas de simulación en MATLAB y Simulink.
¿Para qué desarrollar agentes de simulación?
La idea es facilitar estudios en el área de ciencias sociales que son costosos, poco prácticos o éticamente complejos de realizar con sujetos humanos reales. Para eso tenemos a los agentes de simulación.
En realidad, las aplicaciones potenciales son diversas: desde evaluar la efectividad de intervenciones en redes sociales para combatir la desinformación, hasta estudiar los comportamientos que causan embotellamientos en el tráfico de vehículos. Si podemos crear modelos de IA que se comporten como personas reales, podemos usarlos para testear muchísimas cosas. Todo esto sin necesidad de poner en riesgo o incomodar a personas reales.
Por supuesto, hay que advertir que, al igual que la IA de generación de imágenes ha multiplicado la circulación de deepfakes a un nivel exponencial, cualquier tecnología de generación de agentes plantea interrogantes sobre sus potenciales aplicaciones: será aún más sencillo que las personas puedan crear herramientas para hacerse pasar por otros en internet, diciendo o autorizando cosas sin consentimiento de la persona real.
Ver todos los comentarios en https://www.xataka.com.ar
VER 0 Comentario