jeudi 29 juin 2023

Google applique l’IA avancée à la prévention du suicide et à la réduction des résultats de recherche graphiques

Google applique l’IA avancée à la prévention du suicide et à la réduction des résultats de recherche graphiques

Date de publication :Par Nicolas Gaillard https://indigobuzz.fr/*

Google lira les indices contextuels au moment le plus important.

Google a déployé des systèmes d’intelligence artificielle plus intelligents et affirme qu’il les met désormais au travail pour assurer la sécurité des personnes.

En particulier, le géant de la recherche a partagé mercredi de nouvelles informations sur la façon dont il utilise ces systèmes avancés pour la prévention du suicide et de la violence domestique, et pour s’assurer que les gens ne voient pas de contenu graphique lorsque ce n’est pas ce qu’ils recherchent.

Lorsque les internautes recherchent des expressions liées au suicide ou à la violence domestique, Google affiche une boîte d’informations contenant des détails sur la manière de demander de l’aide. Il remplit ces boîtes avec des numéros de téléphone et d’autres ressources qu’il crée en partenariat avec des organisations et des experts locaux.

Mais Google a constaté que toutes les expressions de recherche liées à des moments de crise personnelle ne sont pas explicites et que beaucoup sont géographiquement spécifiques. Par exemple, il existe des endroits connus comme des « points chauds » du suicide. Auparavant, Google marquait manuellement les recherches de points chauds connus qui feraient apparaître des boîtes d’information sur la réduction des risques. Mais grâce aux nouveaux outils d’IA, le moteur de recherche peut savoir qu’une recherche est liée au suicide – et faire apparaître ces boîtes d’information – sans direction humaine explicite.

Google donne l’exemple qu’en Australie, les personnes ayant des idées suicidaires peuvent rechercher des « points chauds du suicide à Sydney ». Google affirme que ses nouveaux outils de traitement du langage lui permettent de comprendre que ce qu’une personne recherche vraiment ici, c’est de sauter des points – et qu’elle peut avoir besoin d’aide.

« Tous les langages de crise ne sont pas évidents, en particulier d’une langue et d’une culture à l’autre », a déclaré Anne Merritt, chef de produit Google qui a travaillé sur le projet de réduction des risques.

De même, des recherches parfois longues et complexes sur les relations peuvent contenir des informations suggérant qu’une personne est maltraitée. Les systèmes précédents auraient peut-être eu du mal à identifier cette information cruciale parmi d’autres bruits. Mais Google affirme que MUM est plus apte à comprendre les longues requêtes, de sorte qu’il peut faire apparaître des boîtes d’information sur la violence domestique dans ces cas.

L’autre innovation de Google est de s’assurer que les utilisateurs ne tombent pas accidentellement sur du contenu graphique si ce n’est pas ce qu’ils recherchent. Même sans le paramètre « recherche sécurisée » activé, Google affirme que le fait de mettre un nouveau système d’IA au travail sur ce défi a réduit les résultats de recherche graphique de 30 %.

Pour démontrer la technique, Google a donné l’exemple d’une personne recherchant une vidéo musicale. De nombreuses vidéos musicales contiennent, eh bien, beaucoup de nudité ou de nudité partielle. Google choisira donc de montrer des vidéos qui ne contiennent pas de contenu graphique comme la nudité ou la violence, à moins que ce ne soit ce qu’une personne recherche explicitement. Cela peut sembler un peu pudique et potentiellement injuste pour les musiciens qui incluent de la nudité ou d’autres contenus graphiques dans leur art. Mais en tant qu’arbitre de la recherche, Google a apparemment choisi d’être en sécurité plutôt que désolé (de peur de traumatiser accidentellement quelqu’un).

« Nous voulons vraiment être très clairs sur le fait qu’un utilisateur cherche quelque chose avant de le retourner », a déclaré Emma Higham, chef de produit qui travaille sur les recherches sécurisées.

Les nouveaux moteurs d’IA qui alimentent ces changements s’appellent MUM(s’ouvre dans un nouvel onglet) et BERT(s’ouvre dans un nouvel onglet). La technologie la plus récente, MUM, signifie Multitask Unified Model. Google affirme que MUM comprend mieux l’intention derrière la recherche d’une personne, il donne donc des réponses plus nuancées que les anciens modèles fournis. Il est également formé dans 75 langues, de sorte qu’il peut répondre aux questions en utilisant des informations provenant de sources écrites dans des langues autres que celle dans laquelle une personne recherche. Google emploiera MUM pour ses efforts de prévention des crises « dans les semaines à venir ».

Google affirme que MUM est 1 000 fois plus puissant que la deuxième innovation de recherche la plus récente, BERT, qui signifie Bidirectional Encoder Representations from Transformers. Mais ne sous-estimez pas le BERT, qui est capable de comprendre les mots en fonction du contexte des mots qui l’entourent, et pas seulement pour la signification autonome d’un mot. C’est ce qui en fait un outil efficace pour réduire les recherches de contenu graphique.

Une boîte d’information et des résultats de recherche plus propres ne peuvent endiguer qu’une grande partie de la marée qui est le stress et les traumatismes de la vie quotidienne, en particulier sur Internet ces jours-ci. Mais c’est une raison de plus pour que la Big Tech investisse dans des outils technologiques avec des applications comme celles-ci.

*https://indigobuzz.fr/2023/05/google-applique-lia-avancee-a-la-prevention-du-suicide-et-a-la-reduction-des-resultats-de-recherche-graphiques.html