Envie de développer une IA éthique ? Ensuite, nous avons besoin de plus de voix africaines
L'intelligence artificielle (IA) faisait autrefois partie de la science-fiction. Mais ça se généralise. Il est utilisé dans la technologie de téléphonie mobile et les véhicules à moteur. Il alimente des outils pour l'agriculture et les soins de santé.
Mais des inquiétudes ont émergé quant à la responsabilité de l'IA et des technologies connexes telles que l'apprentissage automatique. En décembre 2020, un informaticien, Timnit Gebru, a été licencié de l'équipe d'IA éthique de Google. Elle avait auparavant sonné l'alarme sur les effets sociaux des biais dans les technologies d'IA. Par exemple, dans un article de 2018 Gebru et un autre chercheur, Joy Buolamwini, avaient montré comment les logiciels de reconnaissance faciale étaient moins précis pour identifier les femmes et les personnes de couleur que les hommes blancs. Les biais dans les données de formation peuvent avoir des effets de grande envergure et inattendus.
Il existe déjà un corpus substantiel de recherches sur l'éthique en IA. Cela met en évidence l'importance des principes pour garantir que les technologies ne se contentent pas d'aggraver les préjugés ou même d'introduire de nouveaux dommages sociaux. Comme l'indique le projet de recommandation de l'UNESCO sur l'éthique de l'IA :
Nous avons besoin de politiques et de cadres réglementaires internationaux et nationaux pour garantir que ces technologies émergentes profitent à l'humanité dans son ensemble.
Ces dernières années, de nombreux des cadres et des directives ont été créés pour identifier les objectifs et les priorités de l'IA éthique.
C'est certainement un pas dans la bonne direction. Mais il est également essentiel de regarder au-delà des solutions techniques pour résoudre les problèmes de biais ou d'inclusivité. Les préjugés peuvent entrer au niveau de qui définit les objectifs et équilibre les priorités. ce qui compte comme une IA éthique en premier lieu. Cela est particulièrement pertinent lorsque l'on considère la croissance de la recherche en IA et de l'apprentissage automatique sur le continent africain.
Contexte
La recherche et le développement de technologies d'IA et d'apprentissage automatique se développent dans les pays africains. Des programmes tels que Data Science AfricaData Science Nigeriaet le Deep Learning Indaba avec ses événements satellite IndabaXqui ont jusqu'à présent ont eu lieu dans 27 pays africains différents, illustrent l'intérêt et l'investissement humain dans les domaines. de cette recherche.
Pourtant, très peu de voix africaines ont jusqu'à présent été impliquées dans les cadres éthiques internationaux qui visent à guider la recherche. Cela pourrait ne pas être un problème si les principes et les valeurs de ces cadres ont une application universelle. Mais il n'est pas clair qu'ils le fassent.
Par exemple, le European AI4People framework propose une synthèse de six autres cadres éthiques. Il identifie le respect de l'autonomie comme l'un de ses principes clés. Ce principe a été critiqué dans le champ éthique appliqué de la bioéthique. Elle est considérée comme ne pas rendre justice aux valeurs communautaires communes à toute l'Afrique. Ceux-ci se concentrent moins sur l'individu et davantage sur la communauté, même exigeant que des exceptions soient faites pour soutenir un tel principe afin de permettre des interventions efficaces.
Des défis comme ceux-ci – ou même la reconnaissance qu'il pourrait y avoir de tels défis. – sont largement absents des discussions et des cadres de l'IA éthique.
Tout comme les données de formation peuvent enraciner les inégalités et les injustices existantes, le fait de ne pas reconnaître la possibilité de divers ensembles de valeurs qui peuvent varier selon les contextes sociaux, culturels et politiques .
Résultats inexploitables
En outre, le fait de ne pas prendre en compte les contextes sociaux, culturels et politiques peut signifier que même une solution technique éthique apparemment parfaite peut être inefficace ou malavisée une fois mise en œuvre.[19659002]Pour que l'apprentissage automatique soit efficace pour faire des prédictions utiles, tout système d'apprentissage doit avoir accès aux données d'entraînement. Cela implique des échantillons des données d'intérêt : des entrées sous la forme de plusieurs caractéristiques ou mesures, et des sorties qui sont les étiquettes que les scientifiques veulent prédire. Dans la plupart des cas, ces caractéristiques et étiquettes nécessitent une connaissance humaine du problème. Mais un échec à prendre en compte correctement le contexte local pourrait entraîner des systèmes sous-performants.
Par exemple, les enregistrements d'appels de téléphones portables ont été utilisés pour estimer la taille de la population avant et après les catastrophes. Cependant, les populations vulnérables sont moins susceptibles d'avoir accès aux appareils mobiles. Ainsi, ce type d'approche pourrait donner des résultats qui ne sont pas utiles .
De même, les technologies de vision par ordinateur pour identifier différents types de structures dans une zone seront probablement moins performantes lorsque différents matériaux de construction sont utilisés. Dans ces deux cas, comme nous et d'autres collègues le discutons dans un autre article récent ne pas tenir compte des différences régionales peut avoir des effets profonds sur n'importe quoi, de la fourniture d'aide en cas de catastrophe à la performance des systèmes autonomes. [19659008]À l'avenir
Les technologies de l'IA ne doivent pas simplement aggraver ou incorporer les aspects problématiques des sociétés humaines actuelles.
Être sensible aux différents contextes et les inclure est essentiel pour concevoir des solutions techniques efficaces. Il est tout aussi important de ne pas supposer que les valeurs sont universelles. Ceux qui développent l'IA doivent commencer à inclure des personnes d'horizons différents : non seulement dans les aspects techniques de la conception d'ensembles de données et autres, mais aussi dans la définition des valeurs qui peuvent être invoquées pour définir et définir des objectifs et des priorités.
Cet article de Mary Carmanmaître de conférences en philosophie, Université du Witwatersrand et Benjamin Rosmanprofesseur associé à la School of Computer Science and Applied Mathematics, University of the Witwatersrand, est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article d'origine.
Source link