Stratégie d'apprentissage automatique de Google: matériel, logiciels et beaucoup de données

Sundar Pichai, PDG de Google, prend la parole lors de la conférence des développeurs I / O de Google, le 7 mai 2019.
agrandir / Sundar Pichai, PDG de Google, prend la parole lors de la conférence des développeurs I / O de Google, le 7 mai 2019.

David Paul Morris / Bloomberg sur Getty Images

Dans l'une des démonstrations les plus intéressantes du discours de Google I / O de cette semaine, une nouvelle version de l'assistant vocal de Google a été publiée, qui sera disponible plus tard cette année. Un employé de Google a demandé à l'assistant Google d'appeler ses photos et de les montrer avec des animaux. Elle en tapa un et dit: "Envoyez-le à Justin." La photo a été déplacée vers l'application de messagerie.

A partir de là, c'est devenu plus impressionnant.

"Hé Google, envoyez un e-mail à Jessica", at-elle déclaré. "Bonjour Jessica, je viens de rentrer de Yellowstone et je suis totalement tombée amoureuse d'elle." Le téléphone transcrivit ses mots et inscrivit "Salut Jessica" sur une ligne distincte.

"Participez à des aventures à Yellowstone", dit-elle. L’assistant a compris que «Yellowstone Adventures» devrait figurer dans la ligne de sujet et non dans le corps du message.

Puis, sans instructions explicites, la femme a de nouveau présenté le texte du message. Enfin, elle a dit "envoyer" et l'assistant de Google l'a fait.

Google travaille également à élargir la compréhension de l'assistant de références personnelles, a annoncé la société. Si un utilisateur "Hey Google, quel temps fait-il chez maman?" Google peut déterminer que "la maison de maman" fait référence à la maison de la mère de l'utilisateur, recherche son adresse et fournit des prévisions météorologiques pour sa ville.

Selon Google, l'assistant de la prochaine génération proposera de "nouveaux téléphones pixel" plus tard cette année, des téléphones disponibles sur la ligne Pixel 3 actuelle.

De toute évidence, il y a une grande différence entre une démonstration de boîte de conserve et un produit expédié. Nous devrons attendre pour voir si les interactions typiques avec le nouvel assistant fonctionnent si bien. Cependant, Google semble être en passe de développer un assistant virtuel capable de gérer des tâches complexes, même vocales.

Voici de nombreuses annonces concernant les E / S: Il ne s’agit pas de l’annonce de nouveaux produits importants, mais de l’utilisation de techniques d’apprentissage automatique pour rendre progressivement une série de produits Google plus complexes et plus utiles. Google a également vanté un certain nombre d’améliorations cachées à son logiciel d’apprentissage automatique, qui permettent aux logiciels créés par Google et à des tiers d’utiliser des techniques d’apprentissage automatique plus sophistiquées.

En particulier, Google travaille dur pour déplacer l'apprentissage automatique du cloud vers les appareils mobiles des utilisateurs. Cela devrait permettre aux applications basées sur ML d'être plus rapides, plus privées et hors ligne.

Google a cité les frais pour l'apprentissage automatique

Une carte avec le processeur de tenseurs de Google. "Src =" https://cdn.arstechnica.net/wp-content/uploads/2019/05/TPU_V3_BOARD_OVERHEAD_WHITE_FORWEBONLY_FIN.max-2200x2200-640x329.png "width =" 640 "height =" 3240 "height =" 329 "srcset =" https: " /cdn.arstechnica.net/wp-content/uploads/2019/05/TPU_V3_BOARD_OVERHEAD_WHITE_FORWEBONLY_FIN.max-2200x2200-1280x658.png 2x
agrandir / Une carte avec le processeur de tenseurs de Google.

Google

Si vous demandez à des experts en apprentissage automatique lorsque le boom actuel de l'apprentissage en profondeur a commencé, de nombreuses personnes citeront un article publié en 2012 sous le nom "AlexNet", selon l'auteur principal Alex Krizhevsky. Les auteurs, un trio de chercheurs de l'Université de Toronto, ont participé au concours ImageNet pour classer les images dans l'une des mille catégories.

Les organisateurs d'ImageNet ont fourni plus d'un million d'échantillons d'images étiquetés pour former les réseaux. AlexNet a atteint une précision sans précédent en utilisant un réseau neuronal profond avec huit couches pouvant être entraînées et 650 000 neurones. Ils ont été en mesure de former un si grand réseau avec autant de données, car ils ont découvert comment utiliser des GPU grand public conçus pour le traitement parallèle à grande échelle.

AlexNet a montré combien il est important d’appeler une chaire à trois pieds d’apprentissage en profondeur: de meilleurs algorithmes, plus de données de formation et plus de puissance de calcul. Au cours des sept dernières années, les entreprises des trois fronts se sont efforcées d’améliorer leurs compétences et d’améliorer leurs performances.

Google a mené cette charge presque depuis le début. Deux ans après qu'AlexNet ait remporté un concours de reconnaissance d'image appelé ImageNet en 2012, Google s'est inscrit au concours avec un réseau de neurones encore plus profond et a remporté le grand prix. La société a embauché des dizaines d'experts en apprentissage automatique de haut niveau, y compris l'acquisition de DeepMind, une start-up d'apprentissage en profondeur, en 2014, ce qui la place à la pointe de la conception de réseaux de neurones.

La société dispose également d’un accès sans pareil à de grandes quantités de données. Un article de 2013 décrivait comment Google utilise des réseaux de neurones profonds pour suivre les numéros d'adresses dans des millions d'images capturées par Google Street View.

Google a également travaillé dur sur le matériel. Google a annoncé en 2016 avoir développé une puce personnalisée appelée Tensor Processing Unit, spécialement conçue pour accélérer les processus utilisés par les réseaux de neurones.

"Bien que Google ait envisagé de développer un circuit intégré spécifique à une application (ASIC) pour les réseaux de neurones en 2006, la situation est devenue urgente en 2013", a écrit Google en 2017. "Nous avons constaté que la charge de calcul des réseaux de neurones augmentait rapidement doubler le nombre de centres de données que nous exploitons. "

C'est pourquoi Google I / O s'est tellement concentré sur l'apprentissage automatique au cours des trois dernières années. La société estime que ces ressources (une petite armée d’experts en apprentissage automatique, de grandes quantités de données et du silicium propriétaire) en font un outil idéal pour l’apprentissage automatique.

Google I / O de cette année n'a pas eu beaucoup d'annonces importantes concernant ses produits ML, car la société a déjà intégré l'apprentissage automatique dans plusieurs de ses produits clés. Android utilise la reconnaissance vocale et l'assistant Google depuis des années. Google Photos a une longue histoire de recherches impressionnantes basées sur le ML. L'année dernière, Google a lancé Google Duplex, qui effectue une réservation au nom d'un utilisateur disposant d'une voix humaine incroyablement réaliste à l'aide d'un logiciel.

Au lieu de cela, les présentations d'E / S d'apprentissage automatique se sont concentrées sur deux domaines: la délocalisation d'activités d'apprentissage automatique vers des smartphones et l'utilisation de l'apprentissage automatique pour aider les personnes défavorisées, y compris les sourds, les illettrés ou les personnes atteintes de cancer.

Apprentissage automatique de la presse sur smartphone

Justin Sullivan / Getty Images

Des efforts antérieurs pour affiner les réseaux de neurones les ont rendus plus profonds et plus compliqués. Cette approche a donné des résultats impressionnants, mais présente un gros inconvénient: les réseaux deviennent souvent trop complexes pour être exploités sur les smartphones.

La plupart des gens ont résolu ce problème en passant de l'informatique au cloud. Les versions antérieures des assistants linguistiques de Google et d'Apple ont enregistré l'audio et l'a transféré sur les serveurs de l'entreprise pour traitement. Cela fonctionnait bien, mais présentait trois inconvénients majeurs: une latence plus élevée, une confidentialité réduite et la fonctionnalité ne fonctionnerait que hors ligne.

C’est pourquoi Google s’efforce de transférer de plus en plus de calculs sur l’appareil. Les appareils Android actuels disposent déjà de fonctionnalités de base de reconnaissance vocale, mais l'Assistant virtuel Google requiert une connexion Internet. Google indique que cela va changer plus tard cette année avec un nouveau mode hors connexion pour Google Assistant.

Cette nouvelle fonctionnalité est une raison importante des temps de réponse extrêmement rapides démontrés dans la démo de cette semaine. Selon Google, l'assistant pour certaines tâches est "jusqu'à dix fois plus rapide".

Stratégie d'apprentissage automatique de Google: matériel, logiciels et beaucoup de données
4.9 (98%) 32 votes
 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *