Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
Qualcomm Technologies ha anunciado los ganadores de la 12ª edición del programa Qualcomm Innovation Fellowship (QIF) Europe: Tim Georg Johann Rudner (University of Oxford), James Allingham (Universityof Cambridge),DavidRomero (Vrije Universiteit Amsterdam) y Siddharth Gupta (EPF Lausanne).
QIF es un programa anual que se centra en reconocer, recompensar y asesorar a los estudiantes de doctorado en ingeniería más innovadores en Europa, India y los Estados Unidos. El programa recompensa a excelentes investigadores jóvenes en los campos de la inteligencia artificial y la ciberseguridad con premios individuales de 40.000 dólares, mentores dedicados del equipo de Qualcomm, así como la oportunidad de presentar su trabajo en persona a una audiencia de líderes técnicos en la sede de la compañía en San Diego.
Este año, dos universidades más se unieron a la lista de socios, a saber, la Universidad Técnica de Berlín (TU Berlín) y la Universidad Técnica de Darmstadt. Han sido seleccionados como resultado de su excelencia académica en los campos del aprendizaje automático y la ciberseguridad. Las otras escuelas asociadas que presentan propuestas se encuentran en Bélgica (KU Leuven), los Países Bajos (Universidad de Delft, Vrije Universiteit Amsterdam), Suiza (ETHZ y EPFL), el Reino Unido (Imperial College, Cambridge University y Oxford University), Alemania (Max Planck Institute for Informatics, Sarrebruck y Universidad Técnica de Múnich) e Irlanda (Trinity College dublinés).
Después de una cuidadosa revisión, los siguientes cuatro ganadores fueron seleccionados por sus propuestas sobresalientes:
Ganadores del programa QIF europa:
Tim Georg Johann Rudner (Universidad de Oxford), supervisado por Yarin Gal, ha sido seleccionado por su propuesta: «A Fully Probabilistic Theory of Autonomous Decision Making».
Las aplicaciones de aprendizaje automático siguen estando en gran medida ausentes de muchos dominios de alto riesgo donde se requiere una interacción autónoma con el mundo real, como la conducción autónoma o la cirugía de alta precisión. Esto se debe a que los sistemas de aprendizaje profundo todavía no son confiablemente seguros o robustos en casos extremos raros y situaciones inesperadas o desafiantes. Sin embargo, esta es la solución en el futuro.
La propuesta de Tim se trata de desarrollar un marco totalmente probabilístico para el aprendizaje por refuerzo para proporcionar una cuantificación de incertidumbre fiable y matemáticamente rigurosa. A diferencia de los enfoques anteriores, propone tratar tanto el proceso de aprendizaje como los componentes del modelo, como la política de un agente, probabilísticamente. El enfoque combinará los avances en la inferencia probabilística y el modelado con el aprendizaje por refuerzo probabilístico. Esto permitirá a los vehículos y máquinas autónomos «saber lo que saben», así como lo que no saben, y por lo tanto operar de manera más segura y confiable.
James Allingham (Universidad de Cambridge), dirigido por José Miguel Hernández-Lobato, ha sido seleccionado por su propuesta: «Priores que fomentan la diversidad para la incertidumbre barata pero bien calibrada en el aprendizaje profundo».
Las redes neuronales profundas estándar se utilizan con mucho éxito en muchas aplicaciones, pero estas redes a menudo nacen demasiado y siguen siendo incapaces de cuantificar la incertidumbre de manera robusta y confiable en sus predicciones. Las soluciones existentes para la cuantificación de la incertidumbre requieren aproximaciones sólidas y recursos computacionales significativos, o hay margen de mejora con respecto a la precisión y la calibración de los resultados.
James propone un método que impone priores que fomentan la diversidad entre las predicciones realizadas por diferentes partes del modelo. Con el equilibrio adecuado entre fomentar la diversidad y obtener predicciones precisas, este método permitirá la provisión de estimaciones de incertidumbre computacionalmente baratas pero bien calibradas. También planea lanzar una biblioteca de código abierto para entrenar e implementar los modelos resultantes. El proyecto puede tener un impacto positivo significativo en aplicaciones críticas para la seguridad o relacionadas con la salud, como el diagnóstico del cáncer o la conducción automatizada, donde los recursos computacionales son limitados.
David Romero (Vrije Universiteit Amsterdam), supervisado por Jakub Tomczak y Mark Hoogendoorn, ha sido seleccionado por su propuesta: «Continuous Kernel Convolution For ML». Una pregunta central en la investigación de aprendizaje automático es cómo modelar dependencias a largo plazo de una manera eficiente. Las dependencias a largo plazo se encuentran ubicuamente en datos de alta dimensión, como las señales de audio y vídeo. Las redes neuronales convolucionales exhiben una limitación importante para modelar tales dependencias a largo plazo debido a su horizonte de memoria limitado también conocido como campo receptivo. Para superar este problema, David propone núcleos convolucionales continuos en cnns. La parametrización del núcleo continuo se logra a través de un pequeño MLP de salida continua que genera pesos del núcleo dadas las posiciones como entrada. David propone explorar la aplicabilidad de las CNNs de kernel convolucionales para aplicaciones en las que las interacciones a largo plazo juegan un papel importante: modelado generativo de alta resolución (autorregresivo), imágenes (a gran escala) y procesamiento de video.
Siddharth Gupta (EPF Lausanne), supervisado por Abhishek Bhattacharjee y Babak Falsafi, ha sido seleccionado por su propuesta: «Reiniciar la memoria virtual con Midgard». Los servicios en línea populares tienen amplias bases de usuarios que están generando datos a un ritmo sin precedentes. Este aumento drástico en los tamaños de los conjuntos de datos ha dado lugar a servidores con capacidad de memoria a escala de TB. Esta propuesta aborda el problema de que las memorias grandes en los centros de datos superan las capacidades del búfer de traducción de lookaside (TLB) y necesitan más niveles de tabla de páginas en las unidades de administración de memoria (MMUs), lo que lleva a grandes latencias cerca de los núcleos de CPU. Sid propone introducir una etapa adicional de traducción de direcciones, permitiendo la traducción de grano grueso combinada con control de acceso cerca de los núcleos y traducción de grano fino para apoyar la fragmentación cerca de las memorias. Las peores latencias se alejan de los núcleos de CPU y se mitigan mediante las memorias caché, que funcionan en el espacio de direcciones intermedio.