El mito de la inteligencia artificial: un análisis crítico de Apple

Apple ha generado controversia en el mundo de la inteligencia artificial con un estudio reciente que cuestiona la capacidad de los modelos como ChatGPT para “razonar”. Según el informe, estos sistemas no piensan ni razonan como los humanos, e incluso ese supuesto “razonamiento” puede ser contraproducente.
Los científicos de Apple Machine Learning Research han propuesto una nueva categoría de modelos llamada Large Reasoning Models (LRMs), diseñados para generar razonamientos intermedios antes de entregar una respuesta. Sin embargo, los resultados obtenidos muestran que estos modelos colapsan cuando se enfrentan a desafíos de mayor complejidad.
En resumen, Apple sugiere que la IA actual no razona, simplemente simula, y cuando se ve exigida más allá de sus límites conocidos, se rompe. Aunque otros gigantes tecnológicos como OpenAI, Google y Anthropic están incorporando funciones de razonamiento a sus modelos, Apple aún no ha lanzado un modelo propio que compita en igualdad de condiciones.
En síntesis:
El estudio de Apple pone en duda la capacidad de la inteligencia artificial para “pensar” realmente, cuestionando la idea de que las máquinas están empezando a desarrollar un pensamiento autónomo.
Preguntas frecuentes:
– ¿Qué es lo que cuestiona el estudio de Apple sobre la inteligencia artificial?
El estudio cuestiona la capacidad de los modelos de IA para pensar y razonar como los humanos.
– ¿Qué propone Apple como solución en su investigación?
Apple propone la creación de modelos llamados Large Reasoning Models (LRMs) que generan razonamientos intermedios antes de entregar una respuesta.
– ¿Cuál es la conclusión principal del estudio de Apple?
La IA actual no razona, simplemente simula, y se rompe cuando se enfrenta a desafíos de mayor complejidad.
Crédito de la fuente original: www.clarin.com