IA fue entrenada para pensar como un humano y el resultado es aterrador, ¿por qué?
Bajo el nombre de Centauro, la IA asombró por su capacidad de "pensamiento" en comparación con los humanos.

El avance tecnológico ha hecho que la inteligencia artificial (IA) se posicione a tal punto en el que grandes empresas buscan destacar por encima de las otras. En ese sentido, cada vez más se quiere que la IA llegue a parecerse lo más que pueda a la mente humana.
Con el paso del tiempo, se han venido configurando a la IA para que ejecute actividades humanas, pero lo cierto es que todavía no lo ha cumplido al 100%. A partir de ello, científicos compartieron la idea de que la herramienta tecnológica puede que contribuya a entender mejor la mente.
¿De qué se trata el estudio de la IA que piensa como una humano?
El estudio, que se encuentra en la revista Nature, consigna que se creó lo que es un sistema similar al de ChatGPT con la capacidad de imitar las conductas humanas en pruebas psicológicas y de reaccionar como si poseyera una conciencia propia.
El coautor del estudio Helmholtz Munich dijo en New York Times que le asombró la capacidad que tienen las IA para responder cualquier pregunta.
Para el año 2023, Meta sacó su código abierto que se llama 'LLaMA' y con esto se dio la posibilidad de empezar a experimentar. Entonces, el grupo de estudio optó por entrenar el código utilizando datos de experimentos psicológicos realizados por ellos mismos y por otros científicos.
Con 160 pruebas de diferentes dinámicas, como, por ejemplo, juegos de manejar una nave, se recolectaron millones de respuestas con miles de participantes. Tras entrenar el código, los investigadores solicitaron al modelo que actuara como si fuera un participante humano en cada uno de los experimentos.
¿La IA pudo pensar con éxito como si fuere una mente humana?
Como resultado nació Centauro, bajo la premisa de "mitad humano y mitad caballo". En las pruebas, se publicó que Centauro fue capaz de anticipar cómo se comportarían los participantes humanos en experimentos que no le habían sido presentados antes.

Cuando la IA se enfrentó por sí misma, creó tácticas parecidas a la de los participantes humanos que hicieron parte de la investigación científica, así que tuvo una capacidad de generalización.
El sistema también tuvo que resolver problemas de razonamiento lógico que no formaban parte de su entrenamiento inicial, pero aun así generó respuestas similares a las de los humanos; acertaba en las situaciones que los humanos también lo hacían y tenía sus fallas en los escenarios complicados para las personas.
Ante esto, la comunidad científica ha analizado los hallazgos desde distintos ángulos, algunos positivos y otros han preferido callar.
Unirse a canal de Whatsapp de SuperLike