lundi 17 avril 2023
Comment la devise "Don't be evil" de Google a évolué à l'ère de l'IA
"J'ai toujours pensé à l'IA [l'intelligence artificielle] comme la technologie la plus profonde sur laquelle l'humanité travaille. Plus profonde que le feu ou l'électricité ou tout ce que nous avons fait dans le passé", a déclaré Sundar Pichai, PDG de Google et de son société mère Alphabet.
Pichai, 50 ans, a donné au correspondant de 60 Minutes, Scott Pelley, un accès rare au fonctionnement interne du développement de l'IA de Google, qui comprend des robots qui ont acquis des compétences grâce à l'apprentissage automatique et au projet Starline, une expérience de vidéoconférence sur l'IA que Google développe pour permettre aux gens de se sentent comme s'ils étaient ensemble, même s'ils se trouvaient dans des endroits différents.
L'incursion la plus attendue et la plus remarquable de Google dans l'IA est peut-être son chatbot, Bard . La société appelle actuellement cela une expérience, en partie pour effectuer davantage de tests internes. Bard a notamment commis une erreur lorsque Google a lancé le programme en février. Contrairement à la recherche Google, Google dit que Bard ne cherche pas de réponses sur Internet. Au lieu de cela, il s'appuie sur un programme autonome et principalement autodidacte.
"[AI] atteint l'essence de ce qu'est l'intelligence, ce qu'est l'humanité", a déclaré Pichai à Pelley.
Dans la vidéo ci-dessous, Pelley a demandé à Pichai comment Bard affecterait la recherche Google, qui exécute 90 % des requêtes Internet et est la division la plus rentable de l'entreprise.
Lorsque Google a déposé son premier appel public à l'épargne en 2004 , ses fondateurs ont écrit que le principe directeur de l'entreprise, "Ne soyez pas méchant", était censé l'aider à faire de bonnes choses pour le monde, même si elle devait renoncer à certains gains à court terme. . La phrase reste dans le code de conduite de Google .
Pichai a déclaré à 60 Minutes qu'il était responsable en ne publiant pas de modèles avancés de Bard, en partie, afin que la société puisse s'acclimater à la technologie et que l'entreprise puisse développer d'autres couches de sécurité.
L'une des choses que Pichai a déclarées à 60 Minutes qui l'empêche de dormir la nuit est que la technologie d'intelligence artificielle de Google est déployée de manière nuisible.
Le chatbot de Google, Bard, a intégré des filtres de sécurité pour aider à combattre la menace des utilisateurs malveillants. Pichai a déclaré que la société devra constamment mettre à jour les algorithmes du système pour lutter contre les campagnes de désinformation et détecter les deepfakes , des images générées par ordinateur qui semblent être réelles.
Comme Pichai l'a noté dans son interview de 60 Minutes, la technologie de l'IA grand public en est à ses balbutiements. Il pense que le moment est venu pour les gouvernements de s'impliquer.
« Il doit y avoir une réglementation. Vous allez avoir besoin de lois… il doit y avoir des conséquences pour la création de fausses vidéos profondes qui nuisent à la société », a déclaré Pichai. "Quiconque a travaillé avec l'IA pendant un certain temps… réalise [s] que c'est quelque chose de si différent et de si profond que nous aurions besoin de réglementations sociétales pour réfléchir à la façon de nous adapter."
L'adaptation qui se produit déjà autour de nous avec la technologie qui, selon Pichai, "sera plus capable" de tout ce que nous avons jamais vu auparavant ".
Bientôt, il appartiendra à la société de décider de son utilisation et de respecter ou non le code de conduite d'Alphabet et de "faire ce qu'il faut".
Vous pouvez regarder le rapport en deux parties de Scott Pelley sur Google ci-dessous.
Inscription à :
Publier les commentaires (Atom)
Aucun commentaire:
Enregistrer un commentaire