Agenda 2020
09 A.M | Comienza la transmisión en vivo | |
09:30 AM | Fundamental | Megan Kacholia Kemal El Moujahid Manasi Joshi |
9:55 a. M. | Aprender a leer con TensorFlow y Keras El procesamiento del lenguaje natural (NLP) ha alcanzado un punto de inflexión, y esta charla le muestra cómo TensorFlow y Keras facilitan el preprocesamiento, el entrenamiento y la hipertonía de modelos de texto. | Paige Bailey |
10:15 a. M. | TensorFlow Hub: facilita el descubrimiento de modelos TF Hub es el repositorio principal de modelos ML. Esta charla analiza todas las nuevas funciones y cómo pueden hacer que su viaje de descubrimiento de modelos sea aún mejor. | Sandeep Gupta |
10:25 a. M. | AA colaborativo con TensorBoard.dev Compartir los resultados del experimento es una parte importante del proceso de AA. Esta charla muestra cómo TensorBoard.dev puede habilitar el aprendizaje automático colaborativo al facilitar el intercambio de resultados de experimentos en su documento, publicación de blog, redes sociales y más. | Gal Oshri |
10:30 a. M. | Transición de Kagglers a TPU con TF 2.x Recientemente, Kaggle presentó el soporte de TPU a través de su plataforma de competencia. Esta charla trata sobre cómo los competidores de Kaggler pasaron del uso de GPU a TPU, primero en Colab y luego en los portátiles Kaggle. | Julia Elliott |
10:35 a. M. | Perfiles de rendimiento en TF 2 Esta charla presenta un generador de perfiles que Google utiliza internamente para investigar el rendimiento de TF en plataformas que incluyen GPU, TPU y CPU. | Qiumin Xu | 10:45 a. M. | Posible bloque de preguntas y respuestas Aproveche la función LiveChat en la transmisión en vivo, ya que los miembros del equipo de TensorFlow responderán en el chat en tiempo real. Si tenemos tiempo adicional en la transmisión en vivo, responderemos algunas preguntas en vivo. | Todos los oradores hasta ahora |
10:55 a. M. | Rotura | |
11:20 a. M. | Investigar con TensorFlow En esta charla, repasaremos algunas características interesantes de TF que son útiles cuando se investiga. | Alexandre Passos |
11:35 a. M. | Capas de optimización convexa diferenciables Los problemas de optimización convexa se utilizan para resolver muchos problemas en el mundo real. Hasta ahora, ha sido difícil usarlos en las canalizaciones de TensorFlow. Esta charla presenta cvxpylayers, un paquete que facilita la inserción de problemas de optimización convexa en TensorFlow, lo que le permite ajustarlos mediante el descenso de gradientes. | Akshay Agrawal, Universidad de Stanford |
11:40 a. M. | Escalar el procesamiento de datos de Tensorflow con tf.data A medida que el entrenamiento de modelos se vuelve más distribuido por naturaleza, tf.data ha evolucionado para ser más consciente de la distribución y más eficiente. Esta charla presenta las herramientas tf.data para escalar el procesamiento de datos de TensorFlow. En particular: el servicio tf.data que permite que su canalización tf.data se ejecute en un clúster de máquinas, y tf.data.snapshot que materializa los resultados en el disco para su reutilización en múltiples invocaciones. | Rohan Jain |
11:55 a. M. | Escalado de modelos de TensorFlow 2 a GPU de varios trabajadores Esta charla muestra varias mejoras de rendimiento en TensorFlow 2.2 para acelerar y escalar la carga de trabajo de entrenamiento de ML de los usuarios a varias GPU de varios trabajadores. Analizamos las optimizaciones usando una tarea de ajuste fino de BERT en el jardín modelo TF, escrita usando un ciclo de entrenamiento personalizado. | Zongwei Zhou |
12:10 p. M. | Aprovechando Colab al máximo Aprenda consejos y trucos del equipo de Colab. Esta charla describe cómo los usuarios de TensorFlow aprovechan al máximo Colab y mira detrás de la cortina para ver cómo funciona Colab. | Timothy Novikoff |
12:15 p. M. | TensorFlow y el aprendizaje automático desde las trincheras: el centro de experiencia de innovación en el laboratorio de propulsión a chorro Chris Mattmann explicará cómo el Centro de Experiencia de Innovación de JPL en la Oficina del Director de Información admite análisis avanzados, inteligencia artificial y aprendizaje automático utilizando TensorFlow para Smarter Rovers, un campus más inteligente y más. | Chris Mattmann, NASA |
12:25 p. M. | Posible bloque de preguntas y respuestas Aproveche la función LiveChat en la transmisión en vivo, ya que los miembros del equipo de TensorFlow responderán en el chat en tiempo real. Si tenemos tiempo adicional en la transmisión en vivo, responderemos algunas preguntas en vivo. | Ponentes desde el descanso en adelante |
12:35 p. M. | Rotura | |
1:40 p.m. | MLIR: Aceleración de TF con compiladores Esta charla describirá MLIR, la infraestructura del compilador de aprendizaje automático para TensorFlow, y explicará cómo ayuda a TensorFlow a escalar más rápido para satisfacer las necesidades del software y hardware de aprendizaje automático en rápida evolución. | Jacques Pienaar |
1:50 p. M. | TFRT: un nuevo tiempo de ejecución de TensorFlow TFRT es un nuevo tiempo de ejecución para TensorFlow. Aprovechando MLIR, su objetivo es proporcionar una capa de infraestructura unificada y extensible con el mejor rendimiento de su clase en una amplia variedad de hardware específico de dominio. Este enfoque proporciona un uso eficiente de las CPU de host multiproceso, admite modelos de programación totalmente asíncronos y se centra en la eficiencia de bajo nivel. | Mingsheng Hong |
2:00 PM | TFX: ML de producción con TensorFlow en 2020 Descubra cómo la plataforma de aprendizaje automático de producción de Google, TFX, está cambiando en 2020. | Tris Warkentin Zhitao Li |
2:25 p. M. | TensorFlow Enterprise: producción de TensorFlow con Google Cloud TensorFlow Enterprise hace que sus aplicaciones de TensorFlow estén listas para la empresa, con una serie de mejoras a TensorFlow en Google Cloud. Desbloquea datos y modelos de escala en la nube, al tiempo que simplifica el desarrollo de aplicaciones de ML críticas para el negocio desde el prototipo hasta la producción. Juntos, resolvemos la parte más difícil del aprendizaje automático empresarial en la producción. | Makoto Uchida |
2:35 p. M. | TensorFlow Lite: AA para dispositivos móviles e IoT Obtenga información sobre cómo implementar ML en teléfonos móviles y dispositivos integrados. Ahora implementado en miles de millones de dispositivos en producción, es el mejor marco de ML multiplataforma del mundo para dispositivos móviles y microcontroladores. Sintonice nuestros nuevos y emocionantes anuncios. | Tim Davis TJ Alumbaugh |
2:55 p. M. | Jacquard: Incorporación de ML a la perfección en objetos cotidianos Jacquard es una plataforma de computación ambiental impulsada por ML que toma objetos comunes y familiares y los mejora con nuevas habilidades y experiencias digitales, mientras se mantiene fiel a su propósito original. Describiremos cómo hemos capacitado e implementado modelos de aprendizaje automático con recursos limitados que se integran sin problemas en las prendas y accesorios cotidianos; como su chaqueta, mochila o un par de zapatos favoritos que le encanta usar. | Nicolás Gillian |
3:05 p. M. | TensorFlow.js: aprendizaje automático para la Web y más allá TensorFlow.js es una plataforma para entrenar e implementar modelos de aprendizaje automático en navegadores o en cualquier lugar donde se pueda ejecutar Javascript, como dispositivos móviles, la plataforma de mini aplicaciones WeChat y Raspberry Pi. Proporciona varios backends, incluidos CPU, GPU, Node y backend WASM. También proporciona una colección de modelos previamente entrenados, incluidas las dos adiciones más recientes: MobileBERT y FaceMesh. | Na Li |
3:15 p. M. | Posible bloque de preguntas y respuestas Aproveche la función LiveChat en la transmisión en vivo, ya que los miembros del equipo de TensorFlow responderán en el chat en tiempo real. Si tenemos tiempo adicional en la transmisión en vivo, responderemos algunas preguntas en vivo. | Ponentes desde el descanso en adelante |
3:25 p. M. | Rotura | |
3:45 p. M. | Involucrarse en la comunidad TF Descubra cómo puede ser parte del creciente ecosistema de TensorFlow y convertirse en colaborador a través del código, la documentación, la educación o el liderazgo de la comunidad. | Joana Carraqueira |
3:55 p. M. | IA responsable con TensorFlow: equidad y privacidad Presentamos un marco para pensar en ML, equidad y privacidad. Esta charla propondrá un flujo de trabajo de aprendizaje automático consciente de la equidad, ilustrará cómo las herramientas de TensorFlow, como los indicadores de equidad, se pueden usar para detectar y mitigar el sesgo, y luego pasará a un estudio de caso específico sobre la privacidad que guiará a los participantes a través de un par de piezas de infraestructura. que puede ayudar a entrenar a un modelo de manera que se preserve la privacidad. | Catherina Xu Miguel Guevara |
4:20 p. M. | TensorFlow Quantum: una plataforma de software para el aprendizaje automático híbrido cuántico-clásico Presentamos TensorFlow Quantum, una biblioteca de código abierto para la creación rápida de prototipos de nuevos algoritmos de ML híbridos cuánticos y clásicos. Esta biblioteca ampliará el alcance del AA actual bajo TensorFlow y proporciona la caja de herramientas necesaria para unir las comunidades de investigación de la computación cuántica y el aprendizaje automático para controlar y modelar datos cuánticos. | Masoud Mohseni |
4:45 p.m. | Anuncios de clausura |