Research Scientist Intern, AI & Compute Foundation - MTIA Software (PhD) | Stagiaire chercheur ou chercheuse scientifique, AI & Compute Foundation - MTIA Software (Ph. D)
About the role
The MTIA (Meta Training & Inference Accelerator) Software team is part of the AI & Compute Foundation org. The team’s mission is to explore, develop and help productize high-performance software and hardware technologies for AI at datacenter scale. The team co-optimizes both SW (e.g., algorithms and numerics) and HW (e.g., platform and network) to come up with balanced system design. To develop new systems, requires understanding performance bottlenecks on existing systems. As a result, the team invests significantly into optimizing AI production models on existing systems. This has resulted in TCO wins for all key AI services.The team has been developing AI frameworks to accelerate Meta’s DL/ML workloads on the specialized MTIA AI accelerator hardware in a highly performant and flexible way. As part of the AI acceleration software stack, we develop kernel libraries exploiting various hardware architectural features, achieving high performance for our inference and training workloads.Our team at Meta offers twelve (12) to sixteen (16) weeks long internships and we have various start dates throughout the year.-------L’équipe logicielle MTIA (Meta Training & Inference Accelerator) fait partie de l’organisation AI & Compute Foundation. Sa mission est d’explorer, de développer et de contribuer à la mise en production de technologies logicielles et matérielles hautes performances pour l’IA à l’échelle des centres de données. L’équipe co-optimise à la fois le logiciel (p. ex. algorithmes et calcul numérique) et le matériel (p. ex. plateforme et réseau) afin de proposer une conception de système équilibrée. Développer de nouveaux systèmes nécessite de comprendre les goulots d’étranglement des performances des systèmes existants. En conséquence, l’équipe investit considérablement dans l’optimisation des modèles de production d’IA sur les systèmes existants. Cela a permis de réaliser des gains en coût total de possession (CTP) pour tous les services d’IA clés.L’équipe développe des cadres d’IA pour accélérer les charges de travail DL/ML de Meta sur le matériel spécialisé d’accélération MTIA, de façon hautement performante et flexible. Dans le cadre de la pile logicielle d’accélération en IA, nous développons des bibliothèques de noyaux exploitant diverses caractéristiques architecturales du matériel, atteignant un haut niveau de performance pour nos charges d’inférence et d’entraînement.Notre équipe chez Meta propose des stages de douze (12) à seize (16) semaines et nous avons différentes dates de début tout au long de l’année.
Research Scientist Intern, AI & Compute Foundation - MTIA Software (PhD) | Stagiaire chercheur ou chercheuse scientifique, AI & Compute Foundation - MTIA Software (Ph. D) Responsibilities:
- Development of Software stack with one of the following core focus areas: AI frameworks, compiler stack, high performance kernel development and acceleration onto next generation of hardware architectures | Développement d’une pile logicielle avec l’un des domaines d’intérêt principaux suivants : Cadres d’IA, pile de compilateurs, développement de noyaux haute performance et accélération sur la prochaine génération d’architectures matérielles.
- Contribute to the development of the industry-leading PyTorch AI framework core compilers to support new state of the art inference and training AI hardware accelerators and optimize their performance | Contribuer au développement des compilateurs centraux du cadre d’IA PyTorch, chef de file de l’industrie, afin de prendre en charge les nouveaux accélérateurs matériels d’IA de pointe pour l’inférence et l’entraînement et d’optimiser leur performance.
- Analyze deep learning networks, develop & implement compiler optimization algorithms | Analyser les réseaux d’apprentissage profond, développer et mettre en œuvre des algorithmes d’optimisation du compilateur
- Collaborating with AI research scientists to accelerate the next generation of deep learning models such as Recommendation systems, Generative AI, Computer vision, NLP etc | Collaborer avec les chercheurs en IA pour accélérer la prochaine génération de modèles d’apprentissage profond, tels que les systèmes de recommandation, l’IA générative, la vision par ordinateur, le traitement automatique du langage naturel, etc.
- Performance tuning and optimizations of deep learning framework & software components | Réglage des performances et optimisations du framework d’apprentissage profond et des composants logiciels
Minimum Qualifications:
- Currently has, or is in the process of obtaining, PhD degree in the field of Computer Science or a related STEM field | Possède actuellement, ou est en train d’obtenir, un doctorat dans le domaine de l’informatique ou dans un domaine STEM connexe
- C/C++ programming skills | Compétences en programmation C/C++
- Must obtain work authorization in country of employment at the time of hire, and maintain ongoing work authorization during employment | Doit obtenir un permis de travail dans le pays où se trouve l’emploi à la date d’embauche et maintenir ce permis pendant la durée de l’emploi
- Knowledge of Computer Architecture and Distributed systems with interest in one or more of High Performance Computing, Numerics, Performance and AI hardware including compute, networking and storage | Connaissance de l’architecture informatique et des systèmes distribués avec intérêt pour un ou plusieurs de calcul haute performance, de calcul numérique, de performance et d’IA, y compris le calcul, la mise en réseau et le stockage
Preferred Qualifications:
- OR AI Compiler: Experience with compiler optimizations such as loop optimizations, vectorization, parallelization, hardware specific optimizations such as SIMD. Experience with MLIR, LLVM, IREE, XLA, TVM, Halide is a plus | OU compilateur d'IA : Expérience dans l
optimisation des compilateurs tels que l
optimisation des boucles, la vectorisation, la parallélisation, l`optimisation spécifique du matériel tel que SIMD. Une expérience avec MLIR, LLVM, IREE, XLA, TVM, Halide est un plus - OR AI frameworks: Experience in developing training and inference framework components. Experience in system performance optimizations such as runtime analysis of latency, memory bandwidth, I/O access, compute utilization analysis and associated tooling development | OU cadres d'IA : Expérience dans le développement de composants d’entraînement et d’inférence d’un cadre (framework). Expérience dans l’optimisation des performances du système, comme l’analyse d’exécution de la latence, la bande passante mémoire, l’accès E/S, l’analyse de l’utilisation du calcul et le développement d’outils associés
- OR AI high performance kernels: Experience with CUDA programming, OpenMP / OpenCL programming or AI hardware accelerator kernel programming. Experience in accelerating libraries on AI hardware, similar to cuBLAS, cuDNN, CUTLASS, HIP, ROCm etc | OU noyaux haute performance pour l’IA : Expérience dans la programmation CUDA, OpenMP/OpenCL ou dans la programmation du noyau d'un accélérateur de matériel d'IA. Expérience dans l’accélération de bibliothèques sur du matériel d’IA, similaire à cuBLAS, cuDNN, CUTLASS, HIP, ROCm, etc
- Experience working with frameworks like PyTorch, Caffe2, TensorFlow, ONNX, TensorRT | Expérience de travail avec des cadres comme PyTorch, Caffe2, TensorFlow, ONNX, TensorRT
- Knowledge of GPU, CPU, or AI hardware accelerator architectures | Connaissance des architectures d’accélérateurs matériels GPU, CPU ou IA
- Proven track record of achieving significant results as demonstrated by grants, fellowships, patents, as well as first-authored publications at leading workshops or conferences | Expérience avérée dans l'obtention de résultats probants, démontrée par des subventions, des bourses, des brevets, ainsi que des publications en tant qu'auteur principal ou autrice principale lors d'ateliers ou de congrès prestigieux
- Demonstrated software engineer experience via an internship, work experience, coding competitions, or widely used contributions in open source repositories (e.g. GitHub) | Expérience avérée en tant qu'ingénieur/ingénieure en logiciel acquise grâce à un stage, une expérience professionnelle, des concours de codage ou des contributions largement utilisées dans des dépôts de sources ouvertes (par exemple, GitHub)
- Intent to return to degree-program after the completion of the internship/co-op | Intention de retourner au programme d’études après l’achèvement du stage ou du programme coopératif
About Meta:
Meta builds technologies that help people connect, find communities, and grow businesses. When Facebook launched in 2004, it changed the way people connect. Apps like Messenger, Instagram and WhatsApp further empowered billions around the world. Now, Meta is moving beyond 2D screens toward immersive experiences like augmented and virtual reality to help build the next evolution in social technology. People who choose to build their careers by building with us at Meta help shape a future that will take us beyond what digital connection makes possible today—beyond the constraints of screens, the limits of distance, and even the rules of physics.
CA$6,240/month to CA$10,334/month + benefits
Individual compensation is determined by skills, qualifications, experience, and location. Compensation details listed in this posting reflect the base hourly rate, monthly rate, or annual salary only, and do not include bonus, equity or sales incentives, if applicable. In addition to base compensation, Meta offers benefits. Learn more about benefits at Meta.
About Meta
Meta's mission is to build the future of human connection and the technology that makes it possible.
Our technologies help people connect, find communities, and grow businesses. When Facebook launched in 2004, it changed the way people connect. Apps like Messenger, Instagram and WhatsApp further empowered billions around the world. Now, Meta is moving beyond 2D screens toward immersive experiences like augmented and virtual reality to help build the next evolution in social technology.
To help create a safe and respectful online space, we encourage constructive conversations on this page. Please note the following:
• Start with an open mind. Whether you agree or disagree, engage with empathy. • Comments violating our Community Standards will be removed or hidden. Please treat everybody with respect. • Keep it constructive. Use your interactions here to learn about and grow your understanding of others. • Our moderators are here to uphold these guidelines for the benefit of everyone, every day. • If you are seeking support for issues related to your Facebook account, please reference our Help Center (https://www.facebook.com/help) or Help Community (https://www.facebook.com/help/community).
For a full listing of our jobs, visit https://www.metacareers.com
Research Scientist Intern, AI & Compute Foundation - MTIA Software (PhD) | Stagiaire chercheur ou chercheuse scientifique, AI & Compute Foundation - MTIA Software (Ph. D)
About the role
The MTIA (Meta Training & Inference Accelerator) Software team is part of the AI & Compute Foundation org. The team’s mission is to explore, develop and help productize high-performance software and hardware technologies for AI at datacenter scale. The team co-optimizes both SW (e.g., algorithms and numerics) and HW (e.g., platform and network) to come up with balanced system design. To develop new systems, requires understanding performance bottlenecks on existing systems. As a result, the team invests significantly into optimizing AI production models on existing systems. This has resulted in TCO wins for all key AI services.The team has been developing AI frameworks to accelerate Meta’s DL/ML workloads on the specialized MTIA AI accelerator hardware in a highly performant and flexible way. As part of the AI acceleration software stack, we develop kernel libraries exploiting various hardware architectural features, achieving high performance for our inference and training workloads.Our team at Meta offers twelve (12) to sixteen (16) weeks long internships and we have various start dates throughout the year.-------L’équipe logicielle MTIA (Meta Training & Inference Accelerator) fait partie de l’organisation AI & Compute Foundation. Sa mission est d’explorer, de développer et de contribuer à la mise en production de technologies logicielles et matérielles hautes performances pour l’IA à l’échelle des centres de données. L’équipe co-optimise à la fois le logiciel (p. ex. algorithmes et calcul numérique) et le matériel (p. ex. plateforme et réseau) afin de proposer une conception de système équilibrée. Développer de nouveaux systèmes nécessite de comprendre les goulots d’étranglement des performances des systèmes existants. En conséquence, l’équipe investit considérablement dans l’optimisation des modèles de production d’IA sur les systèmes existants. Cela a permis de réaliser des gains en coût total de possession (CTP) pour tous les services d’IA clés.L’équipe développe des cadres d’IA pour accélérer les charges de travail DL/ML de Meta sur le matériel spécialisé d’accélération MTIA, de façon hautement performante et flexible. Dans le cadre de la pile logicielle d’accélération en IA, nous développons des bibliothèques de noyaux exploitant diverses caractéristiques architecturales du matériel, atteignant un haut niveau de performance pour nos charges d’inférence et d’entraînement.Notre équipe chez Meta propose des stages de douze (12) à seize (16) semaines et nous avons différentes dates de début tout au long de l’année.
Research Scientist Intern, AI & Compute Foundation - MTIA Software (PhD) | Stagiaire chercheur ou chercheuse scientifique, AI & Compute Foundation - MTIA Software (Ph. D) Responsibilities:
- Development of Software stack with one of the following core focus areas: AI frameworks, compiler stack, high performance kernel development and acceleration onto next generation of hardware architectures | Développement d’une pile logicielle avec l’un des domaines d’intérêt principaux suivants : Cadres d’IA, pile de compilateurs, développement de noyaux haute performance et accélération sur la prochaine génération d’architectures matérielles.
- Contribute to the development of the industry-leading PyTorch AI framework core compilers to support new state of the art inference and training AI hardware accelerators and optimize their performance | Contribuer au développement des compilateurs centraux du cadre d’IA PyTorch, chef de file de l’industrie, afin de prendre en charge les nouveaux accélérateurs matériels d’IA de pointe pour l’inférence et l’entraînement et d’optimiser leur performance.
- Analyze deep learning networks, develop & implement compiler optimization algorithms | Analyser les réseaux d’apprentissage profond, développer et mettre en œuvre des algorithmes d’optimisation du compilateur
- Collaborating with AI research scientists to accelerate the next generation of deep learning models such as Recommendation systems, Generative AI, Computer vision, NLP etc | Collaborer avec les chercheurs en IA pour accélérer la prochaine génération de modèles d’apprentissage profond, tels que les systèmes de recommandation, l’IA générative, la vision par ordinateur, le traitement automatique du langage naturel, etc.
- Performance tuning and optimizations of deep learning framework & software components | Réglage des performances et optimisations du framework d’apprentissage profond et des composants logiciels
Minimum Qualifications:
- Currently has, or is in the process of obtaining, PhD degree in the field of Computer Science or a related STEM field | Possède actuellement, ou est en train d’obtenir, un doctorat dans le domaine de l’informatique ou dans un domaine STEM connexe
- C/C++ programming skills | Compétences en programmation C/C++
- Must obtain work authorization in country of employment at the time of hire, and maintain ongoing work authorization during employment | Doit obtenir un permis de travail dans le pays où se trouve l’emploi à la date d’embauche et maintenir ce permis pendant la durée de l’emploi
- Knowledge of Computer Architecture and Distributed systems with interest in one or more of High Performance Computing, Numerics, Performance and AI hardware including compute, networking and storage | Connaissance de l’architecture informatique et des systèmes distribués avec intérêt pour un ou plusieurs de calcul haute performance, de calcul numérique, de performance et d’IA, y compris le calcul, la mise en réseau et le stockage
Preferred Qualifications:
- OR AI Compiler: Experience with compiler optimizations such as loop optimizations, vectorization, parallelization, hardware specific optimizations such as SIMD. Experience with MLIR, LLVM, IREE, XLA, TVM, Halide is a plus | OU compilateur d'IA : Expérience dans l
optimisation des compilateurs tels que l
optimisation des boucles, la vectorisation, la parallélisation, l`optimisation spécifique du matériel tel que SIMD. Une expérience avec MLIR, LLVM, IREE, XLA, TVM, Halide est un plus - OR AI frameworks: Experience in developing training and inference framework components. Experience in system performance optimizations such as runtime analysis of latency, memory bandwidth, I/O access, compute utilization analysis and associated tooling development | OU cadres d'IA : Expérience dans le développement de composants d’entraînement et d’inférence d’un cadre (framework). Expérience dans l’optimisation des performances du système, comme l’analyse d’exécution de la latence, la bande passante mémoire, l’accès E/S, l’analyse de l’utilisation du calcul et le développement d’outils associés
- OR AI high performance kernels: Experience with CUDA programming, OpenMP / OpenCL programming or AI hardware accelerator kernel programming. Experience in accelerating libraries on AI hardware, similar to cuBLAS, cuDNN, CUTLASS, HIP, ROCm etc | OU noyaux haute performance pour l’IA : Expérience dans la programmation CUDA, OpenMP/OpenCL ou dans la programmation du noyau d'un accélérateur de matériel d'IA. Expérience dans l’accélération de bibliothèques sur du matériel d’IA, similaire à cuBLAS, cuDNN, CUTLASS, HIP, ROCm, etc
- Experience working with frameworks like PyTorch, Caffe2, TensorFlow, ONNX, TensorRT | Expérience de travail avec des cadres comme PyTorch, Caffe2, TensorFlow, ONNX, TensorRT
- Knowledge of GPU, CPU, or AI hardware accelerator architectures | Connaissance des architectures d’accélérateurs matériels GPU, CPU ou IA
- Proven track record of achieving significant results as demonstrated by grants, fellowships, patents, as well as first-authored publications at leading workshops or conferences | Expérience avérée dans l'obtention de résultats probants, démontrée par des subventions, des bourses, des brevets, ainsi que des publications en tant qu'auteur principal ou autrice principale lors d'ateliers ou de congrès prestigieux
- Demonstrated software engineer experience via an internship, work experience, coding competitions, or widely used contributions in open source repositories (e.g. GitHub) | Expérience avérée en tant qu'ingénieur/ingénieure en logiciel acquise grâce à un stage, une expérience professionnelle, des concours de codage ou des contributions largement utilisées dans des dépôts de sources ouvertes (par exemple, GitHub)
- Intent to return to degree-program after the completion of the internship/co-op | Intention de retourner au programme d’études après l’achèvement du stage ou du programme coopératif
About Meta:
Meta builds technologies that help people connect, find communities, and grow businesses. When Facebook launched in 2004, it changed the way people connect. Apps like Messenger, Instagram and WhatsApp further empowered billions around the world. Now, Meta is moving beyond 2D screens toward immersive experiences like augmented and virtual reality to help build the next evolution in social technology. People who choose to build their careers by building with us at Meta help shape a future that will take us beyond what digital connection makes possible today—beyond the constraints of screens, the limits of distance, and even the rules of physics.
CA$6,240/month to CA$10,334/month + benefits
Individual compensation is determined by skills, qualifications, experience, and location. Compensation details listed in this posting reflect the base hourly rate, monthly rate, or annual salary only, and do not include bonus, equity or sales incentives, if applicable. In addition to base compensation, Meta offers benefits. Learn more about benefits at Meta.
About Meta
Meta's mission is to build the future of human connection and the technology that makes it possible.
Our technologies help people connect, find communities, and grow businesses. When Facebook launched in 2004, it changed the way people connect. Apps like Messenger, Instagram and WhatsApp further empowered billions around the world. Now, Meta is moving beyond 2D screens toward immersive experiences like augmented and virtual reality to help build the next evolution in social technology.
To help create a safe and respectful online space, we encourage constructive conversations on this page. Please note the following:
• Start with an open mind. Whether you agree or disagree, engage with empathy. • Comments violating our Community Standards will be removed or hidden. Please treat everybody with respect. • Keep it constructive. Use your interactions here to learn about and grow your understanding of others. • Our moderators are here to uphold these guidelines for the benefit of everyone, every day. • If you are seeking support for issues related to your Facebook account, please reference our Help Center (https://www.facebook.com/help) or Help Community (https://www.facebook.com/help/community).
For a full listing of our jobs, visit https://www.metacareers.com