Fermer

juillet 23, 2022

Le DALL-E 2 d’OpenAI est le grand équivalent technologique du « vert soja »


Cet article contient des spoilers pour le film de 1973 « Vert soja.”

C’est un été chaud d’IA ici pour tous ceux qui ont le moindre intérêt à mettre «l’art» dans intelligence artificielle. Je parle de DALL-E 2 et de l’annonce d’OpenAI selon laquelle son incroyable générateur de texte en art entrerait dans une version bêta fermée.

Le plus excitant de tous : un million de personnes supplémentaires auront accès à DALL-E 2. Woohoo ! Faisons une roue de charrette.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

À l’avant: Il n’y aurait pas de roue de charrette dans les bureaux de Neural à TNW ce jour-là.

DALL-E 2 est, de l’avis de cet humble éditeur, une arnaque. Mais ce n’est pas nouveau dans le monde de la technologie. Facebook est une arnaque. Google est une arnaque. Microsoft est une arnaque. Ils profitent tous de quelque chose qui n’a rien à voir avec ce qu’ils nous disent qu’ils vendent.

Si vous posez des briques, vous êtes un maçon. Et si vous écrivez des programmes, vous êtes un programmeur. Mais si vous vendez des publicités en 2022, vous êtes probablement un géant de la recherche ou une entreprise de médias sociaux. Il n’a pas à avoir de sens tant qu’il fait des profits.

Pour la plupart, la grande technologie fait ses profits en vous convainquant d’être le produit. Pourquoi essayer de vendre un téléviseur à tout le monde sur Terre, alors qu’il est plus facile et plus rentable de trouver un fabricant de téléviseurs qui vous paiera pour l’accès publicitaire à presque tout le monde sur Terre ?

Les données que nous générons alimentent les produits que ces entreprises vendent. L’accord que nous concluons avec eux est à peu près vous pouvez utiliser nos données pour améliorer le produit auquel nous nous connectons. Et, en pratique, cela signifie essentiellement que nous sommes d’accord avec Meta en utilisant nos données de navigation pour aider les annonceurs à nous cibler tant que nous pouvons continuer à jouer à Candy Crush gratuitement.

Arrière plan: DALL-E 2 est une extension sophistiquée du modèle de transformateur d’OpenAI, actuellement itéré sous le nom de « GPT-3 ». Il prend des invites de texte et les transforme en images. C’est incroyablement bon et révolutionnera à 100% le monde de la création de contenu.

Permettez-moi d’être très clair ici: j’adore ça. Je pense que c’est incroyable. C’est un triomphe technologique et le monde entier mérite d’y avoir accès (avec la mise en garde géante qu’OpenAI doit le rendre sûr).

Cependant, vente y accéder est dangereux. Ce n’est pas seulement contraire à l’éthique. Cela pourrait représenter un changement significatif du niveau d’exploitation actuel avec lequel les grandes technologies sont capables de s’en tirer, vers un paradigme dans lequel les grandes technologies nous transforment essentiellement en l’équivalent numérique de Soylent Green.

Alerte spoil: Soylent Green est un vieux film mais c’est un classique. Je vais gâcher la tournure géante de ce film en ce moment, alors vous feriez mieux de surfer si cela pose un problème.

Selon le film, dans un futur lointain, l’humanité est au bord de la famine. Pour survivre, le gouvernement leur donne des barres nutritionnelles et c’est tout ce que la plupart des gens mangent. Un jour, ils sortent une nouvelle saveur appelée « Soylent Green ». Tout le monde l’aime et, heureusement, il est produit en abondance. Malheureusement, il s’avère que Soylent Green est composé d’humains. Pour résoudre le problème de la famine, le gouvernement a commencé à traiter les morts et à nous les nourrir.

Alors, deux choses :

  1. Si je me souviens bien, Soylent Green était en fait gratuit – Je ne l’ai pas regardé depuis un moment, je suis sûr qu’un lecteur me corrigera si je me trompe.
  2. Il serait impossible de manger une barre Soylent Green fabriquée à partir de votre propre cadavre.

J’évoque tout cela car cela explique mon problème avec OpenAI vendant l’accès à DALL-E 2.

Mon avis : Donner aux gens l’accès à DALL-E 2, avec certaines protections en place, a créé un environnement dans lequel n’importe qui peut consulter ce que j’aimerais appeler la bibliothèque d’images humaines interprétées à travers un modèle de transformateur.

Mais au moment où OpenAI a transformé DALL-E 2 en un service monétisé (OpenAI vous permet d’acheter des crédits pour une utilisation au-delà de votre limite bêta), il a transformé nos données en un produit et a commencé à nous les revendre.

Il est passé d’une bibliothèque d’art dont nous pourrions tous (potentiellement) profiter à une entreprise à but lucratif. OpenAI précise même (dans le post lié ci-dessus) que ceux qui ont accès à la version bêta ont légalement le droit de propriété de toute œuvre d’art que le modèle produit à leur demande.

Qui a donné à OpenAI le droit de vendre la propriété des images que nos données ont contribué à créer ?

Il est facile de faire la comparaison avec un écrivain qui lit un tas de livres et utilise ensuite cette inspiration pour créer un nouveau livre.

Mais ce n’est pas ce que fait DALL-E 2. Ne vous attardez pas sur l’aspect « art » de celui-ci. Si nous détartrons le modèle, DALL-E 2 prend une photo, la garde, puis vous la remet lorsque vous la demandez.

S’il a huit photos de l’océan et que vous lui dites de vous en remettre une, il le fera. Mais puisque DALL-E 2 est un agent qui n’existe que dans un monde numérique, il peut faire des choses qui ne seraient pas pratiques dans le domaine physique.

Il peut écraser ces huit images ensemble et en faire une seule image. Et il peut même être ajusté pour décider si huit est le bon nombre d’images à écraser ensemble ou si six suffisent. Peut-être dix ?

Finalement, OpenAI arrive au point où son modèle écrase des millions ou des milliards d’images ensemble. C’est toujours la même astuce.

En résumé : Les données sont des données et la sortie est la sortie. Peu importe qu’il s’agisse de profils artistiques, textuels ou publicitaires. Lorsque Facebook prend vos données, il les vend aux annonceurs afin que vous puissiez jouer à plus de Candy Crush.

Quand OpenAI prend vos données, il n’a jamais eu votre permission. Vous n’avez jamais coché une case ou vous êtes connecté à un site Web qui vous informait expressément que toutes les images que vous mettriez en ligne seraient utilisées pour former le système d’IA à but lucratif d’OpenAI.

Et cela signifie que, que ce soit super amusant comme Candy Crush ou super pratique comme la reconnaissance faciale, OpenAI vous exploite, vous et vos données, chaque fois que quelqu’un achète l’accès au modèle DALL-E 2.

L’entreprise a pris vos données et formé un modèle si bien que vous n’avez pas besoin d’être un futuriste pour savoir qu’à terme, DALL-E sera aussi crucial pour la conception que Photoshop l’est maintenant.

La différence entre Adobe et OpenAI, cependant, est qu’Adobe obtient votre permission pour former son IA sur vos données.

Personne ne m’a jamais demandé si je voulais que mon visage figure dans la base de données de Clearview AI ou dans celle d’OpenAI, et je ressens la même chose à propos de leur monétisation.

Cela crée un précédent sombre et dangereux pour l’utilisation des données récupérées à l’avenir.




Source link