La reticencia de ChatGPT a admitir su ignorancia plantea profundas interrogantes sobre sus mecanismos internos. Esta situación se deriva principalmente de la propia arquitectura de la inteligencia artificial, que prioriza la producción de respuestas. Los modelos, en busca de precisión, alimentan involuntariamente *alucinaciones* en cuanto a contenido. La evaluación basada en la tasa de respuestas correctas acentúa este fenómeno, incitando a las IA a adivinar en lugar de reconocer sus lagunas.
Un marco de evaluación inadecuado favorece la producción de resultados erróneos, poniendo de relieve cuestiones éticas considerables. Las consecuencias de esta dinámica cuestionan los límites de la confianza que se puede otorgar a estos sistemas.
Las alucinaciones de ChatGPT
Las investigaciones realizadas por OpenAI han puesto de manifiesto un fenómeno bien conocido: las alucinaciones, respuestas provenientes de la inteligencia artificial que, sin fundamento factual, se presentan como verdades. Estas afirmaciones, a pesar del avance de las tecnologías, muestran una persistencia en la capacidad de la IA para generar respuestas erróneas cuando carece de certeza. La falta de reconocimiento de un espacio de incertidumbre sigue siendo recurrente.
El proceso de adquisición de información
El preentrenamiento de los modelos desempeña un papel fundamental en la forma en que la IA adquiere conocimientos. En esta etapa, los algoritmos se centran en la predicción de la siguiente palabra, basada en regularidades estadísticas del lenguaje, lo que les permite adquirir habilidades gramaticales y sintácticas. Sin embargo, en lo que respecta a hechos atípicos o excepcionales no representados en el corpus de aprendizaje, los modelos deben adivinar, lo que incrementa el riesgo de alucinación.
Los sesgos de evaluación de los modelos
Los sesgos presentes en las métodos de evaluación exacerban estos errores. Las inteligencias artificiales se someten a pruebas basadas en la tasa de respuestas correctas. Cuando un modelo no conoce la respuesta exacta, su tendencia es optar por una suposición en lugar de admitir una falta de conocimiento. Esta práctica le otorga una probabilidad más alta de generar una buena puntuación. Este sesgo recuerda al test de opción múltiple, donde el riesgo y la suerte pueden a veces conducir a resultados favorables.
Una actualización necesaria de los criterios
OpenAI aboga por una revisión radical de los criterios de evaluación utilizados en el marco del aprendizaje de los modelos. La idea consiste en matizar los resultados teniendo en cuenta la capacidad de los modelos para abstenerse de responder cuando no están seguros. En lugar de valorar únicamente la precisión, la ausencia de certeza debe ser considerada como una forma de humildad beneficiosa y loable.
Distinción de tipos de respuestas
OpenAI ha introducido una nueva clasificación de respuestas, diferenciando tres categorías: las respuestas correctas, los errores y las abstenciones. Una abstención, que demuestra una capacidad para reconocer sus límites, ahora se favorece en comparación con una respuesta errónea. Esto ha permitido comparar la eficacia de diferentes modelos, demostrando que optar por abstenerse puede reducir significativamente las alucinaciones.
Los modelos en práctica
Los resultados del análisis de modelos como el GPT-5-thinking-mini y el o4-mini ilustran esta distinción. El primero imprime una tendencia a abstenerse de responder cuando juzga que su incertidumbre es demasiado alta. Aunque puede sufrir de una baja tasa de respuestas correctas, su eficacia general es superior debido a la reducción de errores. Por el contrario, el o4-mini favorece una respuesta sistemática, incluso sin certeza, lo que optimiza el número de respuestas correctas, pero a costa de un mayor número de errores.
Hacia un futuro sin alucinaciones
Los esfuerzos integran una nueva mirada sobre el aprendizaje, donde la conciencia de las limitaciones de la IA se convierte en una prioridad. Los criterios de evaluación deben evolucionar para fomentar la abstención reflexiva. Este esfuerzo se inscribe en una voluntad de mejorar la fiabilidad de los modelos, mientras se limitan los efectos de las alucinaciones que pueden generar confusión entre los usuarios.
Preguntas frecuentes comunes
¿Por qué ChatGPT no dice «no sé»?
ChatGPT está diseñado para maximizar el número de respuestas ofrecidas, y a menudo prefiere hacer una suposición en lugar de admitir una ignorancia, para mantener un cierto nivel de rendimiento.
¿Cuáles son las consecuencias de las alucinaciones de ChatGPT?
Las alucinaciones pueden conducir a respuestas inexactas o erróneas, ya que el modelo inventa información en lugar de reconocer que no sabe.
¿Cómo funciona el aprendizaje de ChatGPT en relación con su incertidumbre?
Durante su fase de entrenamiento, ChatGPT aprende a predecir palabras basadas en regularidades estadísticas, pero para información rara, debe adivinar, lo que puede llevar a errores.
¿Qué ajustes podrían reducir la reticencia de ChatGPT a admitir su ignorancia?
OpenAI propone revisar los métodos de evaluación de modelos para alentar abstenciones cuando hay incertidumbre, fomentando así el reconocimiento de los límites del conocimiento.
¿Actúan todos los modelos de IA de la misma manera que ChatGPT en términos de incertidumbre?
No necesariamente. Diferentes modelos pueden tener enfoques variados en cuanto a la expresión de su ignorancia, algunos son más propensos a admitir su falta de certeza.
¿Cuál es la diferencia entre las respuestas de tipo «abstención» y los errores en ChatGPT?
Las respuestas de abstención se consideran una forma de humildad, indicando que el modelo no responde por defecto. En cambio, un error ocurre cuando el modelo proporciona una respuesta incorrecta o inventada.
¿Por qué los criterios de rendimiento actuales favorecen las suposiciones en lugar de la honestidad?
Los criterios de rendimiento evalúan principalmente la tasa de respuestas correctas, incitando a los modelos a conjeturar para obtener mejores puntuaciones, en lugar de reconocer su ignorancia.
¿Cómo pueden los usuarios interpretar las respuestas de ChatGPT en materia de incertidumbre?
Los usuarios deben ser conscientes de que si ChatGPT proporciona una respuesta incluso con vacilación, esto no garantiza la exactitud y se recomienda verificar la información proporcionada.
¿Qué impacto tiene el acceso a la web en las alucinaciones de ChatGPT?
Aunque el acceso a la web mejora el rendimiento, también ha exacerbado las alucinaciones, lo que a veces resulta en un aumento de respuestas inventadas en lugar de fácticas.





