La simulación del mundo físico se aproxima con Google Deepmind, que ya replica la personalidad de una persona con 85% de precisión

Personalidad Copiada Ia
Sin comentarios Facebook Twitter Flipboard E-mail

¿Escuchaste hablar de la división DeepMind de Google? ¿Y de la Inteligencia Artificial General (AGI)? Bueno, para que te enteres, ChatGPT de OpenAI  y Gemini de Google son solo el iceberg de un desarrollo aún más profundo de las IA. En ese sentido, un equipo de investigadores de Google DeepMind y la Universidad de Stanford consiguieron crear "dobles digitales" de 1.052 personas con una precisión sorprendente a nivel personalidad, a través de solo dos horas de conversación con cada participante como método para conocerlos.

El experimento fue desarrollado por el estudiante de doctorado en Ciencias de la Computación de Stanford Joon Sung Park, y liderado por Tim Brooks, ex investigador de OpenAI y responsable de la creación de Sora. Brooks se unió al proyecto en 2024 y trabaja en colaboración con los equipos de Gemini (la IA generativa de Google), Veo (generador de videos) y Genie (creador de mundos interactivos).

La investigación se ha publicado en arXiv, aunque aún no ha sido revisada por pares, punto crucial para legitimar o no un proyecto. Es un tramo necesario porque actúa como filtro para comprobar la metodología utilizada y los resultados finales. Esto se hace por procedimiento científico, porque podría haber investigaciones que en sus conclusiones estiran la verdad al máximo y difunden algo que, finalmente, no es tan así como se afirma.

Para el procedimiento, los investigadores descartaron utilizar encuestas o datos demográficos, y en su lugar optaron por entrevistas cualitativas. Esto se debe a la convicción de Park, que después de participar en muchos programas de podcast, concluyó que son la forma más eficaz de conocer a alguien. Y parece que tan errado no estaba: los agentes de IA alcanzaron una precisión efectiva del 85%, superando por 14 puntos porcentuales a los modelos de predicción demográficos tradicionales.

Stephanie Arnett Mit Technology Review Getty Fuente: Stephanie Arnett / MIT Technology Review / Getty.

“Podemos crear un agente de una persona -réplica de IA- que capte muchas de sus complejidades y su naturaleza idiosincrásica”, explicó el joven Park a New Scientist.

Para verificar las respuestas de las réplicas digitales, los investigadores sometieron tanto a los participantes como a sus dobles virtuales a una serie de pruebas dos semanas más tarde. Además del éxito, los resultados también dejaron entrever que, al repetir las pruebas, los humanos coincidieron con sus propias respuestas en apenas un 81% de los casos, lo que refleja la variabilidad de nuestra naturaleza.

En qué fallaron las IA

Por supuesto, ese 85% de exactitud deja por fuera el margen más difícil de captar de los detalles que hacen únicas a las personas. Entre los desaciertos, estos agentes no fueron capaces de replicar los comportamientos humanos que tienen más que ver con valores complejos como el sentido de justicia, en los que se involucran tanto la moralidad, la empatía, el contexto sociocultural y experiencias muy propias. Además, las decisiones y posturas de un humano en muchas oportunidades son altamente dinámicas. Cambian con las experiencias, las percepciones y las interacciones sociales.


Un agente de simulación no es lo mismo que un agente de IA generativa

Para entenderlo de forma sencilla, los agentes de simulación están diseñados específicamente para modelar comportamientos y situaciones en entornos controlados, su comportamiento sigue patrones. Por otro lado, los agentes de IA generativa pueden aprender y generar respuestas originales basadas en el contexto, crean contenido nuevo a raíz de su entrenamiento y tienen capacidad de adaptación.

Actualmente, algunas de las principales empresas que trabajan con agentes de simulación son:


¿Para qué desarrollar agentes de simulación?

La idea es facilitar estudios en el área de ciencias sociales que son costosos, poco prácticos o éticamente complejos de realizar con sujetos humanos reales. Para eso tenemos a los agentes de simulación.

En realidad, las aplicaciones potenciales son diversas: desde evaluar la efectividad de intervenciones en redes sociales para combatir la desinformación, hasta estudiar los comportamientos que causan embotellamientos en el tráfico de vehículos. Si podemos crear modelos de IA que se comporten como personas reales, podemos usarlos para testear muchísimas cosas. Todo esto sin necesidad de poner en riesgo o incomodar a personas reales.

Por supuesto, hay que advertir que, al igual que la IA de generación de imágenes ha multiplicado la circulación de deepfakes a un nivel exponencial, cualquier tecnología de generación de agentes plantea interrogantes sobre sus potenciales aplicaciones: será aún más sencillo que las personas puedan crear herramientas para hacerse pasar por otros en internet, diciendo o autorizando cosas sin consentimiento de la persona real.

Inicio