Des plaintes déposées auprès de l’UE remettent en question les projets de Meta d’utiliser les données personnelles pour l’IA

« À mesure que de plus en plus de modèles d’IA sont développés et que de plus en plus d’organisations sont impliquées, il est crucial qu’elles incluent des garanties juridiques dans leurs opérations », a déclaré Jain. « Cela transfère la responsabilité juridique au fournisseur de modèles. Même si cela peut ralentir l’innovation, cela garantit que les entreprises sont également responsables du respect de la loi, ce qui pourrait empêcher les petits acteurs d’entrer sur le marché.
Les entreprises seront obligées de procéder à des audits réguliers des modèles d’IA pour garantir le respect des lois sur la protection des données, a déclaré Thomas George, président de Cybermedia Research.
« Sur le plan financier, les entreprises devraient envisager de constituer des réserves pour couvrir les coûts potentiels liés à la conformité, atténuant ainsi l’impact de toute modification soudaine nécessaire des modèles d’IA », a déclaré George. « Sur le plan opérationnel, investir dans la formation et le développement continus des équipes techniques afin de rester au courant des dernières exigences de conformité permettra des ajustements plus agiles des systèmes d’IA en cas de besoin. »
Source link