Fei-Fei Li e ImageNet: la base de datos (supervisada) que revolucionó la IA


Quienes trabajamos en Ciencia de Datos sabemos que existe un umbral muy bien definido a partir del cual las soluciones de un problema mediante una técnica basada en datos aumentan considerablemente su dificultad, a saber las bases de datos supervisadas. Es cierto que la buena calidad de los datos es un aspecto fundamental en un amplio sentido sin embargo el primer gran diferenciador entre los datos muy útiles y los no tanto es la supervisión.

Un ejemplo fundamental de esto lo podemos encontrar en uno de los trabajos (monumentales) gracias al cual la Inteligencia Artificial hoy en día es lo que es. El nombre de la base de datos seguramente es ampliamente conocido por muchos de nuestros lectores: ImageNet. Esta base de datos desempeñó un papel crucial en el desarrollo de la inteligencia artificial, especialmente en el campo de las redes neuronales profundas que son la base de la IA moderna.
Esta base de datos fue cuidadosamente curada y supervisada durante más de dos años por Fei-Fei Li y su equipo, consiste en imágenes etiquetadas lo que que permitió entrenar algoritmos de IA para reconocer objetos en imágenes. Este proyecto se convirtió en un punto de inflexión, ya que ayudó a mejorar la precisión de los sistemas de visión por computadora y fue fundamental para el desarrollo de tecnologías como el reconocimiento facial y las aplicaciones de conducción autónoma.
Fei-Fei Li
Fei-Fei Li nació en China en 1976. Se trasladó a los Estados Unidos en su adolescencia, donde completó su educación. Obtuvo su licenciatura en Física en la Universidad de Princeton y más tarde recibió su doctorado en Ingeniería Eléctrica en la Universidad de California, Berkeley, en 2005.

Además de su trabajo técnico, Fei-Fei Li es una defensora de la ética en la inteligencia artificial, enfocándose en las implicaciones sociales y culturales de la IA. En particular, ha trabajado para asegurar que los avances en IA consideren la diversidad y la equidad, luchando por una representación más inclusiva de mujeres y minorías en la ciencia y la tecnología. Es cofundadora de la iniciativa AI4ALL, que tiene como objetivo inspirar y educar a la próxima generación de líderes en inteligencia artificial.
A lo largo de su carrera, Fei-Fei Li ha recibido numerosos premios y reconocimientos por su contribución a la ciencia y la tecnología. Actualmente, es Sequoia Capital Professor en la Universidad de Stanford y durante un tiempo fue directora del consejo de Twitter.
ImageNet
ImageNet fue lanzada en 2009 y contiene millones de imágenes etiquetadas, organizadas en diversas categorías, lo que permitió a los algoritmos de aprendizaje automático entrenarse de manera eficiente para reconocer objetos en imágenes y videos. Gracias a la enorme cantidad de datos etiquetados que ofrece, ImageNet permitió entrenar modelos más robustos que pueden reconocer objetos con un nivel de precisión mucho mayor que antes. Esto ha sido crucial para aplicaciones en áreas como la medicina, la seguridad, los vehículos autónomos y la robótica.
ImageNet está inspirada en la base de datos WordNet y además muchas de las categorías que se utilizan como etiquetas están en el mismo formato. Pronto se convirtió en un estándar de referencia para probar y comparar algoritmos de visión por computadora. Esto impulsó la innovación, ya que investigadores y empresas pudieron medir el rendimiento de sus modelos y avanzar en nuevas arquitecturas, técnicas y enfoques. A lo largo de los años, ImageNet ha sido un motor que ha mantenido el ritmo del progreso en la visión por computadora.

Su impacto ha sido tan grande que se considera uno de los principales hitos en la historia moderna de la IA, el día de hoy sería imposible entender a la Inteligencia Artificial sin los modelos que han sido probados en esta base de datos para mejorar sus capacidades.
Algunos datos generales sobre la base de datos en su versión más moderna y limpia:
- Más de 12 millones de imágenes
- Más de 11,000 etiquetas distintas con lenguaje natural
- En formato RGB
- Imágenes con hasta 12 millones de píxeles.
Deep Learning
Aunque las redes neuronales profundas existen desde hace varias décadas, la ciencia y la industria centraron su atención en Deep Learning a raíz del éxito que tuvieron las redes convolucionales para realizar inferencias sobre imágenes.
Un equipo de Microsoft en 1995 utilizó la base de datos ImageNET para demostrar que las redes convolucionales entrenadas con las ideas de Hinton, Bengio y LeCun entre otros, logran mejores resultados que los de un ser humano.

Es notable que la tarea con la que pusieron a prueba estas inteligencias artificiales, a diferencia del resto de problemas que soluciona la IA hasta ahora, aparentemente son triviales para los seres humanos como la distinción entre imágenes de gatos y perros.Aunque previamente se habían entrenado modelos neuronales utilizando técnicas como el método del gradiente o backpropagation, no fue hasta finales de los 80’s que se logró entrenar redes con millones de parámetros utilizando bases de datos con alta dimensionalidad.
En 2012, un modelo de CNN llamado AlexNet, desarrollado por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton, ganó la competencia de clasificación de imágenes de ImageNet con una precisión significativamente mayor que los métodos tradicionales. Este éxito demostró el poder del aprendizaje profundo y ayudó a popularizar esta técnica en la comunidad de IA.
¿Dónde aprender Inteligencia Artificial?
En el Colegio de Matemáticas Bourbaki enseñamos con detalle las matemáticas y las bases para que nuestros estudiantes estén listos para aprender los modelos más avanzados de Inteligencia Artificial, Ciencia de Datos y Finanzas Cuantitativas.
- Track de Ciencia de Datos. (49 semanas).
- Machine Learning & AI for the Working Analyst ( 12 semanas).
- Matemáticas para Ciencia de Datos ( 24 semanas).
- Especialización en Deep Learning. (12 semanas).
- Track de Finanzas Cuantitativas (49 semanas)
- Aplicaciones Financieras De Machine Learning E IA ( 12 semanas).
- Las matemáticas de los mercados financieros (24 semanas).
- Deep Learning for Finance (12 semanas).