Ordre du jour 2020
09H00 | La diffusion en direct commence | |
9H30 DU MATIN | Discours d'ouverture | Megan Kacholia Kemal El Moujahid Manasi Joshi |
9h55 | Apprendre à lire avec TensorFlow et Keras Le traitement du langage naturel (NLP) a atteint un point d'inflexion, et cette conférence vous montre comment TensorFlow et Keras facilitent le prétraitement, l'entraînement et l'hypertune des modèles de texte. | Paige Bailey |
10h15 | TensorFlow Hub : faciliter la découverte de modèles TF Hub est le référentiel principal des modèles ML. Cette conférence examine toutes les nouvelles fonctionnalités et comment elles peuvent rendre votre voyage de découverte de modèles encore meilleur. | Sandeep Gupta |
10h25 | ML collaboratif avec TensorBoard.dev Le partage des résultats des expériences est une partie importante du processus de ML. Cette conférence montre comment TensorBoard.dev peut activer le ML collaboratif en facilitant le partage des résultats d'expériences dans votre article, votre article de blog, vos réseaux sociaux, etc. | Gal Ochri |
10h30 | Transition de Kagglers vers TPU avec TF 2.x Récemment, Kaggle a introduit la prise en charge du TPU via sa plateforme de compétition. Cette conférence aborde la façon dont les concurrents de Kaggler sont passés de l'utilisation du GPU à l'utilisation du TPU, d'abord dans Colab, puis dans les ordinateurs portables Kaggle. | Julia Elliot |
10h35 | Profilage des performances dans TF 2 Cette conférence présente un profileur que Google utilise en interne pour étudier les performances TF sur des plates-formes telles que GPU, TPU et CPU. | Qiumin Xu | 10h45 | Bloc de questions/réponses potentiel Veuillez tirer parti de la fonctionnalité LiveChat dans le flux en direct, car les membres de l'équipe TensorFlow répondront dans le chat en temps réel. Si nous avons plus de temps dans le livestream, nous répondrons à quelques questions en direct. | Tous les orateurs jusqu'à présent |
10h55 | Casser | |
11h20 | Recherche avec TensorFlow Dans cet exposé, nous passerons en revue certaines fonctionnalités intéressantes de TF qui sont utiles lors de la recherche. | Alexandre Passos |
11h35 | Couches d'optimisation convexes différenciables Les problèmes d'optimisation convexe sont utilisés pour résoudre de nombreux problèmes dans le monde réel. Jusqu'à présent, il était difficile de les utiliser dans les pipelines TensorFlow. Cette conférence présente cvxpylayers, un package qui facilite l'intégration de problèmes d'optimisation convexe dans TensorFlow, vous permettant de les régler à l'aide de la descente de gradient. | Akshay Agrawal, Université de Stanford |
11h40 | Mise à l'échelle du traitement des données Tensorflow avec tf.data Au fur et à mesure que la formation de modèle devient de plus en plus distribuée, tf.data a évolué pour être plus conscient de la distribution et plus performant. Cette conférence présente les outils tf.data pour la mise à l'échelle du traitement des données TensorFlow. En particulier : le service tf.data qui permet à votre pipeline tf.data de s'exécuter sur un cluster de machines, et tf.data.snapshot qui matérialise les résultats sur le disque pour les réutiliser lors de plusieurs invocations. | Rohan Jaïn |
11h55 | Adaptation des modèles TensorFlow 2 aux GPU multi-travailleurs Cette conférence présente plusieurs améliorations de performances dans TensorFlow 2.2 pour accélérer et adapter la charge de travail de formation ML des utilisateurs aux multi-GPU multi-travailleurs. Nous passons en revue les optimisations à l'aide d'une tâche de réglage fin BERT dans le jardin de modèles TF, écrite à l'aide d'une boucle de formation personnalisée. | Zongwei Zhou |
12h10 | Tirer le meilleur parti de Colab Découvrez les trucs et astuces de l'équipe Colab. Cette conférence décrit comment les utilisateurs de TensorFlow tirent le meilleur parti de Colab et jette un coup d'œil derrière le rideau pour voir comment Colab fonctionne. | Timothée Novikoff |
12h15 | TensorFlow et Machine Learning depuis les tranchées : l'Innovation Experience Center du Jet Propulsion Laboratory Chris Mattmann expliquera comment le centre d'expérience de l'innovation de JPL au sein du bureau du directeur de l'information prend en charge l'analyse avancée, l'IA et l'apprentissage automatique à l'aide de TensorFlow pour Smarter Rovers, un campus plus intelligent et au-delà ! | Chris Mattman, NASA |
12h25 | Bloc de questions/réponses potentiel Veuillez tirer parti de la fonctionnalité LiveChat dans le flux en direct, car les membres de l'équipe TensorFlow répondront dans le chat en temps réel. Si nous avons plus de temps dans le livestream, nous répondrons à quelques questions en direct. | Intervenants depuis la pause |
12h35 | Casser | |
13h40 | MLIR : Accélérer TF avec des compilateurs Cette conférence décrira MLIR - l'infrastructure de compilateur d'apprentissage automatique pour TensorFlow et expliquera comment elle aide TensorFlow à évoluer plus rapidement pour répondre aux besoins des logiciels et du matériel d'apprentissage automatique en évolution rapide. | Jacques Piénaar |
13h50 | TFRT : un nouvel environnement d'exécution TensorFlow TFRT est un nouvel environnement d'exécution pour TensorFlow. En s'appuyant sur MLIR, il vise à fournir une couche d'infrastructure unifiée et extensible avec les meilleures performances de sa catégorie sur une grande variété de matériels spécifiques à un domaine. Cette approche permet une utilisation efficace des processeurs hôtes multithreads, prend en charge des modèles de programmation entièrement asynchrones et se concentre sur l'efficacité de bas niveau. | Mingsheng Hong |
14H00 | TFX : ML de production avec TensorFlow en 2020 Découvrez comment la plate-forme de ML de production de Google, TFX, évolue en 2020. | Tris Warkentin Zhitao Li |
14h25 | TensorFlow Enterprise : produire TensorFlow avec Google Cloud TensorFlow Enterprise prépare vos applications TensorFlow pour l'entreprise, avec un certain nombre d'améliorations apportées à TensorFlow sur Google Cloud. Il déverrouille les données et les modèles à l'échelle du cloud, tout en simplifiant le développement d'applications ML critiques pour l'entreprise, du prototype à la production. Ensemble, nous résolvons la partie la plus difficile du ML d'entreprise en production. | Makoto Uchida |
14h35 | TensorFlow Lite : ML pour les appareils mobiles et IoT Découvrez comment déployer le ML sur les téléphones mobiles et les appareils intégrés. Désormais déployé sur des milliards d'appareils en production, il s'agit du meilleur framework ML multiplateforme au monde pour les mobiles et les microcontrôleurs. Soyez à l'écoute de nos nouvelles annonces passionnantes. | Tim Davis TJ Alumbaugh |
14h55 | Jacquard : intégration transparente du ML dans les objets du quotidien Jacquard est une plate-forme informatique ambiante alimentée par ML qui prend des objets ordinaires et familiers et les améliore avec de nouvelles capacités et expériences numériques, tout en restant fidèle à leur objectif initial. Nous décrirons comment nous avons formé et déployé des modèles d'apprentissage automatique à ressources limitées qui s'intègrent de manière transparente dans les vêtements et accessoires de tous les jours ; comme votre veste préférée, votre sac à dos ou une paire de chaussures que vous aimez porter. | Nicolas Gillian |
15h05 | TensorFlow.js : apprentissage automatique pour le Web et au-delà TensorFlow.js est une plate-forme de formation et de déploiement de modèles d'apprentissage automatique dans les navigateurs, ou partout où Javascript peut s'exécuter, comme les appareils mobiles, la mini-plate-forme d'application WeChat et Raspberry Pi. Il fournit plusieurs back-ends, y compris un back-end CPU, GPU, Node et WASM. Il fournit également une collection de modèles pré-formés, y compris les deux derniers ajouts : MobileBERT et FaceMesh. | Na Li |
15h15 | Bloc de questions/réponses potentiel Veuillez tirer parti de la fonctionnalité LiveChat dans le flux en direct, car les membres de l'équipe TensorFlow répondront dans le chat en temps réel. Si nous avons plus de temps dans le livestream, nous répondrons à quelques questions en direct. | Intervenants depuis la pause |
15h25 | Casser | |
15h45 | S'impliquer dans la communauté TF Découvrez comment vous pouvez faire partie de l'écosystème TensorFlow en pleine croissance et devenir un contributeur via le code, la documentation, l'éducation ou le leadership de la communauté. | Joana Carraqueira |
15h55 | IA responsable avec TensorFlow : équité et confidentialité Présentation d'un cadre pour réfléchir au ML, à l'équité et à la confidentialité. Cette conférence proposera un flux de travail ML sensible à l'équité, illustrera comment les outils TensorFlow tels que les indicateurs d'équité peuvent être utilisés pour détecter et atténuer les biais, puis passera à une étude de cas spécifique concernant la confidentialité qui guidera les participants à travers quelques éléments d'infrastructure. qui peuvent aider à former un modèle de manière à préserver la confidentialité. | Catherine Xu Miguel Guevara |
16h20 | TensorFlow Quantum : une plate-forme logicielle pour l'apprentissage automatique quantique-classique hybride Nous présentons TensorFlow Quantum, une bibliothèque open source pour le prototypage rapide de nouveaux algorithmes d'apprentissage automatique quantique-classique hybrides. Cette bibliothèque étendra la portée du ML actuel sous TensorFlow et fournira la boîte à outils nécessaire pour rassembler les communautés de recherche en informatique quantique et en apprentissage automatique pour contrôler et modéliser les données quantiques. | Massoud Mohseni |
16h45 | Annonces de clôture |