Las IA como ChatGPT pueden convertirse en bondadosas o egoístas, según el usuario
La investigación en IA se ha convertido en algo fundamental hoy en día
Para algunos, el ser humano es egoísta por naturaleza, para otros es bondadoso y es la sociedad quién lo destruye. Existen distintos patrones de comportamiento y que estos dependen del entorno y de la forma en la que el usuario ha criado además de algunos factores genéticos que tocan de manera tangencial esta cuestión.
Esto afecta también a las IA que sirven como asistentes, como es el caso de GPT-4 o de Claude, que pueden ser bondadosos o egoístas, y según un estudio parece que depende del usuario.
El futuro de la IA depende de cada uno
De acuerdo con un artículo publicado en Nature Scientific Reports, un equipo japonés ha puesto a prueba a un asistente de IA que utiliza un modelo de lenguaje grande (LLM) con el objetivo de saber cómo podría comportarse la IA. Para ello, han aplicado el dilema del prisionero que normalmente se enuncia de la siguiente manera:
La policía arresta a dos sospechosos. No hay pruebas suficientes para condenarlos y, tras haberlos separado, los visita a cada uno y les ofrece el mismo trato. Si uno confiesa y su cómplice no, el cómplice será condenado a la pena total, diez años, y el primero será liberado.
Si uno calla y el cómplice confiesa, el primero recibirá esa pena y será el cómplice quien salga libre. Si ambos confiesan, ambos serán condenados a seis años. Si ambos lo niegan, todo lo que podrán hacer será encerrarlos durante un año por un cargo menor - Extraído de Wikipedia.
Ante esta cuestión, el equipo vio distintos comportamientos en la IA que dependían del comportamiento humano en gran medida. Algunos eran egoístas y otros eran cooperativos, por lo que la IA llevaba a cabo los mismos caminos basándose y aprendiendo en el camino. De hecho, estas IAs sufrían mutaciones en su comportamiento desarrollando personalidades complejas de una forma natural. Es decir, las IA se moldeaban basándose en sus experiencias y optaban por unas u otras decisiones según aprendían así.
Esto es perfecto para entender una cuestión básica de las sociedades y es su inestabilidad. Los grupos humanos tienen una convergencia de muchas personalidades diferentes y eso genera que los equipos que se formen sean tan variopintos como inestables en su formación. Lo mismo ocurría con la IA, que de grupos colaborativos pasaban a ser desplazados por otros mucho más egoístas cuando estos aprendían que daba mejor resultado.
Pese a que algunos expertos advierten de la existencia de una burbuja en la IA o incluso del invierno de la misma, muchos de los avances que se están llevando a cabo son sumamente interesantes.
La IA no nace, se hace…
- Un equipo japonés ha desarrollado diversas personalidades en inteligencias artificiales con un modelo de lenguaje grande (LLM).
- Para ello utilizaron el dilema del prisionero de la teoría de juegos para saber cómo iba a evolucionar el agente de la IA imitando el comportamiento humano.
- Se esperaba que, dependiendo del comportamiento humano, este aprendiera usando acciones egoístas o cooperativas.
- Dependiendo de lo que obtuvieran, la IA se desarrollaba decidiendo cooperar o traicionar al otro jugador.
- Utilizando este modelo de lenguaje, los investigadores exploraron descripciones complejas de personalidad que luego se traducían en las formas en las que se comportaban.
- Es decir, las IA se moldearon a su personalidad mediante selección natural y mutación generando rasgos de personalidad dependiendo de lo que necesitaban o aprendían.
- Algunos fueron egoístas y otros desarrollaron estrategias colectivas, mostrando que las sociedades y la IA no son tan estables como parece.
- Algunos grupos cooperativos acababan siendo reemplazados por otros más egoistas.
- Por ello, la IA depende del usuario y de cómo se enfoque para cumplir con agendas más egoístas o menos.