Investigadores universitarios enfrentan barreras tecnológicas en el acceso a GPU
Dificultades en la academia para acceder a recursos computacionales avanzados en inteligencia artificial
Una encuesta reciente destacó los retos que enfrentan los investigadores universitarios al intentar acceder a recursos computacionales avanzados, como las unidades de procesamiento gráfico (GPU). Estos elementos son cruciales para el desarrollo de inteligencia artificial, pero la academia se encuentra rezagada frente a las capacidades de la industria tecnológica. Los resultados, publicados en el servidor de preimpresión arXiv, reflejan una brecha significativa en la disponibilidad de herramientas avanzadas.
El estudio, liderado por Apoorv Khandelwalde la Universidad Brown, encuestó a 50 académicos de 35 instituciones. El 66% calificó con tres o menos puntos, en una escala de cinco, su satisfacción con los recursos computacionales disponibles. La mayoría atribuyó esta insatisfacción a los elevados costos de las GPU, esenciales para entrenar modelos de IA. Mientras que gigantes tecnológicos cuentan con miles de GPU, los investigadores universitarios a menudo disponen de muy pocas.
La encuesta también evidenció disparidades globales. Investigadores de Oriente Medio, por ejemplo, reportaron mayores dificultades para acceder a tecnologías avanzadas. Apenas un 10% de los encuestados indicó tener acceso a GPU H100de NVIDIA, diseñadas específicamente para investigación en IA. Estas limitaciones afectan procesos fundamentales como el preentrenamiento, una etapa clave para desarrollar modelos avanzados. "Es tan costoso que la mayoría de los académicos ni siquiera consideran hacer ciencia sobre el preentrenamiento", comentó Khandelwal.
Universidades de diferentes regiones adoptan estrategias para optimizar sus recursos tecnológicos, como clústeres compartidos o laboratorios con equipos propios. Sin embargo, las largas esperas para usar GPU en momentos críticos de los proyectos complican aún más la investigación.Stella Biderman, de EleutherAI, afirmó que "la brecha entre los modelos académicos e industriales es enorme, pero podría ser mucho menor".
A pesar de los desafíos, los académicos lograron maximizar el uso del hardware limitado mediante métodos más eficientes. Estudios demuestran que es posible entrenar modelos avanzados con recursos modestos, utilizando entre una y ocho GPU, aunque estos métodos requieren más tiempo. Ji-Ung Lee, de la Universidad del Sarre, destacó que "es posible entrenar un modelo más grande de lo que mucha gente hubiera supuesto con recursos informáticos limitados". El informe subraya la importancia de equilibrar el acceso a recursos tecnológicos para fortalecer el ecosistema académico, garantizar un desarrollo tecnológico balanceado y fomentar investigaciones más inclusivas.
Inteligencia ArtificialCienciaTecnología