Site icon Blog ARC Optimizer

AI peut-il sauver les enfants? Un ancien entrepreneur de l'année en Californie dit oui


Zohar Levkovitz explique comment les technologies peuvent protéger les jeunes de la toxicité en ligne.


5 min de lecture

Les opinions exprimées par les contributeurs de l'Entrepreneur sont les leurs.


Pour la plupart d'entre nous, les interactions en ligne sont lentement devenues une norme acceptée. Pour les enfants qui y sont nés, les interactions en ligne sont la norme. Alors que les réseaux sociaux, les services de messagerie et les plates-formes de jeu présentent tous leurs propres avantages, il existe un côté obscur que nous ne pouvons pas ignorer: la toxicité en ligne.

L'intelligence artificielle a réussi à perturber tous les secteurs industriels exposés au soleil en raison de son efficacité et de son évolutivité. Mais peut-il aider à protéger les enfants de la toxicité en ligne avant même de commencer? Selon Zohar Levkovitz, absolument. Levkovitz, un ancien entrepreneur de l'année en Californie, est connu pour avoir construit et vendu Amobee à Singtel pour plus de 350 millions de dollars, en plus d'investir dans des centaines de startups, de contribuer à des causes charitables et de figurer dans l'édition israélienne de Shark Tank . Mais maintenant, il poursuit une mission pour sauver les enfants en lançant L1ght un innovateur basé sur un algorithme conçu pour résoudre la crise de la toxicité en ligne et son impact sur les enfants.

Je l'ai rencontré pour en savoir plus sur le problème de la toxicité en ligne et sur ce que font les entrepreneurs pour le résoudre, et voici ce que j'ai retenu de notre conversation.

Related: This 19- Un an veut mettre fin à l'intimidation avec une application anonyme pour smartphone

1. La technologie a encouragé la toxicité en ligne à se répandre.

La toxicité en ligne concerne des comportements tels que le cyberintimidation le sexisme, la honte, le harcèlement, le discours de haine et les comportements prédateurs. Malheureusement, les cas d'enfants souffrant de dépression ou ayant recours à l'automutilation ont augmenté ces dernières années en raison de la répétition de cas de toxicité en ligne. Avant que nos enfants passent beaucoup de temps en ligne, la toxicité n’était pas aussi sophistiquée que par le passé et elle n’apparaissait pas sous tant de formes et de formes différentes. De nos jours, il est facile de rester anonyme, de se déguiser en quelqu'un d’autre ou de rejoindre des communautés sociales avec des intimidateurs qui partagent les mêmes idées.

2. Ce n'est rien de moins qu'une épidémie mondiale.

Élevant ses jeunes enfants en Californie, où le taux d'automutilation chez les adolescentes est à un record Levkovitz a commencé à prendre conscience des différents dangers auxquels les enfants sont exposés. faire face dans le monde en ligne. Plus il se plongeait dans les chiffres – comme 400 victimes pour un enfant agresseur moyen, ou 74% des joueurs en présence de toxicité – plus la situation dans son ensemble était horrible être.

Il a ensuite rencontré le cyberentrepreneur Ron Porat, qui venait de vendre sa dernière entreprise et avait entendu dire qu'un de ses enfants avait été approché en ligne par un prédateur. Heureusement, rien de grave ne s'est passé, mais ils ont commencé à réfléchir à une solution au problème.

3. C'est un problème que les grandes entreprises ne peuvent pas ou ne veulent pas traiter pleinement.

Les éditeurs de jeux vidéo, les fabricants de consoles et les agences gouvernementales sont clairement au courant de ces problèmes et s'efforcent de les résoudre, dans divers façons. Des mises à jour des termes et conditions et l'application stricte de la loi à une recrue de modérateurs, des actions ont été entreprises, mais le fait est que le problème s'agrandit encore tous les jours.

En ce qui concerne les principaux réseaux sociaux et les principales applications, il faudrait se concentrent désormais sur la création d’une technologie sophistiquée, qui ne fait tout simplement pas partie de leurs activités principales et de leur feuille de route. Ils ont été conçus pour évoluer rapidement, ce qui ne va pas de pair avec la sécurité des enfants et la prévention de millions d’incidents. Les solutions existantes, telles que les modérateurs humains, ne la coupent pas. ( Voir ce qui s’est passé sur le campus qui emploie la plupart des modérateurs de contenu de Facebook.) Les solutions basées sur un dictionnaire n’aident pas non plus nos enfants. Après tout, si les prédateurs commencent secrètement à utiliser un nouveau mot d'argot, toutes les solutions précédentes perdent leur efficacité.

Liés: Ces entrepreneurs prennent le parti pris de l'intelligence artificielle

4. On peut trouver l'espoir dans l'intelligence artificielle.

Le meilleur moyen de résoudre un problème de taille est peut-être de l'adapter à sa taille. Levkovitz et son équipe ont étudié et formé des algorithmes afin de penser comme des enfants – et comme leurs attaquants. Utilisant l'intelligence artificielle et l'apprentissage approfondi, ils analysent les communications, qu'elles soient envoyées par texte, vidéo, audio et image, et prédisent si la conversation est sur le point de devenir toxique. Ils suivent le contexte de l’ensemble de la conversation et sont conscients des changements de tendance. Les attaquants ne peuvent donc pas se cacher derrière de faux profils ou des mots d’argot cachés. À l'aide de cette technologie, ils ont aidé à éliminer 130 000 pédophiles des groupes WhatsApp et des images inappropriées de pédophilie sur le moteur Bing de Microsoft.

Il est clair qu'il reste encore beaucoup à faire pour éradiquer la toxicité en ligne et protéger les enfants. prédateurs en ligne. Avec les nouveaux réseaux de médias sociaux, les plates-formes de messagerie et les jeux qui apparaissent régulièrement, les risques potentiels augmentent de manière exponentielle. Il reste à voir si les entrepreneurs et les nouvelles technologies peuvent travailler pour mettre un terme à cette épidémie.




Source link
Quitter la version mobile