Investigador afirma que la IA podría acabar con la humanidad más temprano que tarde
Eliezer Yudkowsky no tiene una perspectiva muy positiva del futuro de la IA
Algunas IAs como GPT-4 están suponiendo un avance exponencial en la productividad de muchas personas. Para otras, es un riesgo que subraya las profesiones que podrían desaparecer por culpa de la adopción de esta tecnología. Así, existe una visión bastante dual en el mundo de la tecnología: los que piensan que la IA está avanzando demasiado rápido y aquellos que defienden que hay que avanzar todavía más.
La IA podría acabar con el Ser Humano en dos años
Eliezer Yudkowsky, un importante bloguero y experto en inteligencia artificial, fundador del Instituto de Investigación de Inteligencia de Máquinas en California, ha expresado recientemente una visión marcadamente pesimista sobre el futuro de la humanidad en relación con el desarrollo de la IA en una entrevista para el diario británico The Guardian.
Yudkowsky, conocido por sus contribuciones críticas acerca de la IA y su adopción tan vertiginosa, sugiere que el tiempo restante para la humanidad podría ser alarmantemente corto, estimando que estamos más cerca de los cinco años que de los cincuenta, aunque admite que el plazo podría oscilar entre dos y diez años.
Esta visión apocalíptica se centra en la posibilidad de que las máquinas, impulsadas por una Inteligencia Artificial General podrían tarde o temprano, causar la destrucción del planeta. Yudkowsky critica la rapidez con la que la sociedad ha adoptado la IA sin una consideración cuidadosa de los potenciales efectos adversos que esta tecnología podría tener. Según él, los riegos son enormes si no llevamos a cabo un uso ético y responsable de la Inteligencia Artificial.
Yudkowsky sugiere, aunque de forma bromista, que la mejor solución para contrarrestar la amenaza de la IA podría ser bombardear sus centros de datos. Es una broma, claro está, pero pone de manifiesto la enorme preocupación existente por una parte de la comunidad científica que pone de relieve los peligros de una IA que avanza sin ningún freno hacia una posición de ventaja frente a los humanos.
Las otras declaraciones de Yudkowsky sobre el fin de la IA
Hace siete meses, Yudkowsky ya participó en las conocidas como charlas TED en las que explicaba su visión al respecto de esta cuestión. En ellas, bromeaba con la posibilidad del fin del mundo, pero también lanzaba una advertencia:
Creo que esto termina con nosotros enfrentándonos a algo más inteligente que nosotros mismos y que tiene otros objetivos. No quiere nada que a nosotros nos parezca valioso, así que no me puedo imaginar cómo sería un conflicto entre la Humanidad y una IA más inteligente.
Su visión, claramente pesimista de la cuestión no está falta de apoyos. Recientemente veíamos cómo el nieto de Oppenheimer firmaba un manifiesto contra la IA, algo que ya ha ocurrido anteriormente y que se debe en buena medida al escaso análisis a la hora de abordar el impacto que puede tener la IA en nuestras vidas.
No es que Yudkowsky esté en contra de la IA, al contrario defiende la creación de una IA amigable, pero para ello es necesario echar el freno y plantear la IA de una manera crítica.
En resumen:
- Eliezer Yudkowsky ha vuelto a mostrar una visión bastante pesimista de la Inteligencia Artificial.
- Asegura, que el tiempo restante de la Humanidad está más cerca de los cinco años que de los cincuenta, aunque sugiere que podría ser dos o diez años.
- Se refiere al fin de todo por culpa de las máquinas que han arrasado el planeta.
- La mayor crítica de Yudkowsky es la increíble capacidad de adaptar la IA sin un ápice de crítica, teniendo en cuenta que sus efectos adversos podrían ser enormes.
- De forma jocosa, ha asegurado que la mejor solución para acabar con la IA es bombardear sus centros de datos.