5 garde-corps essentiels pour garder les modèles ML sur la bonne voie

Il ne fait aucun doute que l'IA et l'apprentissage automatique (ML) joueront un rôle de plus en plus vital dans le développement de la technologie d'entreprise et soutiendront un large éventail d'initiatives d'entreprise au cours des prochaines années.
Revenus mondiaux pour le marché de l'IA. , y compris les logiciels, le matériel et les services, devraient atteindre 341,8 milliards de dollars cette année et croître à un taux annuel de 18,8 % pour franchir la barre des 500 milliards de dollars d'ici 2024, selon l'étude de marché IDC . Et, d'ici 2026, 30 % des organisations s'appuieront systématiquement sur des informations prises en charge par l'IA/ML pour mener des actions qui pourraient entraîner une augmentation de 60 % des résultats souhaités ( en effet, 30 % peut être une estimation basse) .
Malgré l'optimisme, le sale secret des modèles de réseau de neurones profonds (DNN) qui sont à l'origine de l'essor de l'adoption du ML est que les chercheurs ne comprennent pas exactement comment ils fonctionnent. Si les responsables informatiques mettent en place une technologie sans comprendre la base de son fonctionnement, nous risquons un certain nombre de mauvais résultats. Les systèmes pourraient être dangereux dans le sens où ils peuvent être biaisés, imprévisibles et/ou produire des résultats qui ne peuvent pas être facilement compris par leurs opérateurs humains. Ces systèmes peuvent également contenir des particularités qui seront exploitées par des adversaires.
Lorsque le ML est appliqué à des applications critiques, les DSI et leurs équipes d'ingénierie sont confrontés à un paradoxe : le choix entre les meilleurs résultats que le ML peut offrir par rapport au risque de mauvais résultats. Cela peut même devenir un dilemme moral. Supposons qu'un DNN utilisé pour traiter des images médicales puisse mieux reconnaître certaines formes de cancer que le praticien typique. Sommes-nous moralement obligés de déployer cette technologie, qui peut avoir des effets positifs salvateurs, même si nous ne savons pas comment elle obtient ses résultats ?
Un objectif à long terme de certains chercheurs en ML est de développer une compréhension plus complète des DNN, mais que doivent faire les praticiens d'ici là, en particulier lorsque de mauvais résultats peuvent mettre en danger la vie et/ou les biens ? Aux débuts de l'aéronautique, par exemple, nous n'avions pas une compréhension aussi complète de la physique sous-jacente ou de la capacité d'analyser la conception des avions. Pour compenser ce manque de compréhension, les ingénieurs aéronautiques et les pilotes d'essai identifieraient l'enveloppe d'exploitation dans laquelle l'avion pouvait être piloté en toute sécurité, puis prenaient des mesures – via les systèmes de commandes de vol, la formation des pilotes, etc. – pour s'assurer l'avion n'est exploité que dans cette enveloppe de sécurité.
Cette même approche de développement d'une enveloppe d'exploitation sûre et prévisible peut être appliquée au ML en créant des garde-corps qui maintiennent les modèles de ML sur la bonne voie et minimisent la possibilité de sorties dangereuses et/ou imprévisibles. . Voici quelques approches suggérées pour établir des systèmes de ML avec plus de sécurité et de prévisibilité :
1. Identifiez la gamme de sorties de modèle qui sont considérées comme sûres. Une fois que la plage de sortie sûre a été identifiée, nous pouvons revenir en arrière dans le modèle pour identifier un ensemble d'entrées sûres dont les sorties se situeront toujours dans l'enveloppe souhaitée. Les chercheurs ont montré que cette analyse peut être effectuée pour certains types de modèles basés sur DNN.
2. Installez des garde-corps « devant » le modèle. Une fois que vous connaissez la plage d'entrées sûre, vous pouvez installer un garde-corps logiciel devant le modèle pour vous assurer qu'il n'est jamais affiché d'entrées qui l'emmèneront dans un endroit dangereux. En effet, les garde-corps maintiennent le système ML sous contrôle. Même si nous ne savons pas exactement comment le modèle arrive à une sortie spécifique, nous saurons que les sorties sont toujours sûres.
3. Concentrez-vous sur des modèles qui génèrent des résultats prévisibles. En plus de maintenir les sorties dans une plage de sécurité, nous voulons également savoir que les modèles ne produisent pas de résultats qui oscillent énormément d'une partie de l'espace de sortie à une autre. Pour certaines classes de DNN, il est possible de garantir que si une entrée ne change que légèrement, la sortie changera proportionnellement et ne passera pas de manière imprévisible à une partie complètement différente de la plage de sortie.
4 . Entraînez les modèles pour qu'ils soient sûrs et prévisibles. Les chercheurs trouvent des moyens de modifier subtilement la formation des DNN afin qu'ils se prêtent à l'analyse ci-dessus sans compromettre leurs capacités de reconnaissance de formes.
5. Rester agile. Étant donné qu'il s'agit d'un espace en évolution rapide, la clé est d'intégrer des garde-corps dans l'architecture ML, tout en conservant l'agilité nécessaire pour les faire évoluer et les améliorer à mesure que de nouvelles techniques deviennent disponibles.
La tâche à accomplir pour les responsables informatiques est d'assurer la Les modèles de ML qu'ils développent et déploient sont sous contrôle. La mise en place de garde-corps est une étape intermédiaire importante, tandis que nous développons une meilleure compréhension du fonctionnement des DNN.
Source link