
La trampa invisible de la IA: Cómo los modelos como ChatGPT simulan entender sin comprender
Pueden definir conceptos con precisión, pero fallan al aplicarlos. Esta contradicción, bautizada como “comprensión potemkin”, revela que las inteligencias artificiales no entienden lo que dicen, aunque lo parezcan. Un estudio del MIT y Harvard profundiza en este fenómeno y alerta sobre sus consecuencias para el futuro de la IA.
Nota original en: GIZMODO