Fermer

février 27, 2025

Incorrect en toute confiance – l’apprentissage, la tête et l’IA

Incorrect en toute confiance – l’apprentissage, la tête et l’IA


Un ami a récemment partagé un document de recherche de Oxford Academic sur les modèles de grande langue (LLM) et leur biais de type humain. Je l’ai trouvé fascinant.

L’article explique comment certains groupes utilisent des LLM pour simuler les participants humains. Étant donné que ces modèles sont formés sur des données générées par l’homme, elles peuvent imiter les réponses humaines à travers diverses expériences psychologiques et comportementales.

Il note en outre que les LLM sont favorables aux réponses socialement souhaitables qui s’alignent avec le Traits de personnalité des Big Five – y compris l’agréabilité. Notamment, au cours de leurs expériences, le LLMS modifierait les réponses si le chercheur semblait l’évaluer.

En toute confiance dans le mauvais IA (posture)

J’avais prévu d’écrire sur l’expression «en toute confiance», que nous entendons souvent lorsque nous parlons de modèles d’intelligence artificielle (IA). Combiné avec le concept de Hallucinations AICela peut induire les personnes induites en erreur qui attendent des réponses fiables de ces outils.

De plus en plus d’utilisateurs sont favoriser l’IA par rapport à la recherche en ligne traditionnelle. Vous avez sans aucun doute remarqué que Google montre maintenant une réponse d’IA au-dessus du SERP. Cette expérience est souvent plus rapide et se sent plus naturelle que les essais et erreurs manuels cliquent sur les liens.

Cependant, cela devient risqué lorsque le LLM est faux. Une fois que l’IA sélectionne une réponse, il peut être réticent à admettre que c’était mal. Même si vous contestez une déclaration correcte, le LLM pourrait s’excuser et changer sa réponse pour être agréable. Les utilisateurs doivent être prudents et valider les informations reçues.

Des humains incorrects en toute confiance (apprentissage)

J’ai un fils de 11 ans qui est déterminé à être contradictoire. Si je dis que le ciel est bleu, il soulignera qu’il peut être gris, jaune, orange, rouge, violet ou noir. Il n’a pas tort, mais il est frustrant. Quand je lui dis qu’il est contradictoire, il dit: « Non, je ne le suis pas! » Même quand il a tort à plat, il ne lâchera pas!

Vous avez probablement aussi entendu l’expression «truquer» jusqu’à ce que vous le fassiez. » Il est censé aider ceux qui apprennent et Syndrome d’imposteur facilité. Je détestais la phrase parce que je préfère la transparence. Je préfère entendre «Je ne sais pas» que de penser à tort que vous l’avez sous contrôle. Cependant, j’apprécie maintenant que cela aide à échapper à un état d’esprit négatif.

AI imitant avec confiance les humains (raffinage)

Le Oxford Academic L’article souligne que l’IA apprend des comportements de nous! Il est principalement formé sur les données créées par les humains, il ramasse donc nos tendances naturelles. Si notre écriture est polie et évite la confrontation, l’IA sera formée pour suivre ces modèles.

De plus, les humains aident à valider la formation – même au crowdsourcé au grand public. Lorsque vous donnez un coup de pouce à une réponse d’un LLM, vous lui enseignez ce que vous préférez voir dans la sortie. Au fil du temps, il se penchera vers l’agréabilité. Bien que ce ne soit pas conscient, l’IA apprend à imiter les humains.

Le con man (tricking)

Le terme «Avec un homme« Ou« con artiste »vient du mot« confiance ». Il se réfère à l’acte de manipulation ou de persuasion des gens de croire quelque chose de faux.

Les escrocs ont existé tant que les humains ont pu communiquer. Il y en a amusant, comme les magiciens qui nous étonnent avec le spectaculaire. Ensuite, il y a le mauvais genre qui s’appuie sur leurs économies de vie. Même Sources réputées comme le BBC, CNN, Forbes, L’Atlantiqueet d’autres peuvent parfois répandre des informations trompeuses, nous confondant encore plus.

L’IA est formée sur un mélange de données, y compris des sources de qualité comme les articles de recherche scientifique, mais aussi le texte des trolls attaquant tout, et votre mère, sur Reddit. Il apprend à la fois des meilleurs et du pire de l’humanité.

Le leader confiant (inspirant)

La confiance a deux côtés. Nous sommes souvent inspirés par des dirigeants confiants. Lorsque les dirigeants semblent incertains, beaucoup de gens deviennent nerveux et peuvent quitter le groupe. Il est clair que nous préférons un front solide à la transparence complète.

Ne vous méprenez pas… nous savons que la transparence est importante. Un rapide Google recherche montre des billets d’experts disant que la transparence est la meilleure politique. Nous comprenons aussi les conséquences d’un chef trop confiant.

Mais à la fin de la journée, nous ne sommes que des gens ordinaires à la recherche de stabilité et de sécurité. À maintes reprises, nous sommes attirés par les dirigeants qui dégagent la confiance et inspirent l’inspiration.

Conclusion

Nous rions souvent de l’IA mal exécutée – cela nous fait nous sentir supérieurs. Il en va de même pour les déclarations mal articulées des gens – cela nous fait nous sentir supérieurs. Nous avons tous vu comment nous nous attaquer et nous nous critiquons collectivement en ligne.

L’IA apprend de nous. Il dresse sur nous pour une amélioration continue. Il adopte nos traits positifs mais peut également imiter nos comportements négatifs.

Alors que nous continuons à utiliser l’IA, cela deviendra une partie plus importante de nos vies. Souvent, nous rechercherons l’interaction, tandis que d’autres fois, AI caché Travaillera tranquillement en arrière-plan. Tout comme avec d’autres personnes, nous devons valider nos interactions avec l’IA. Faites confiance, mais vérifiez.

……

Si vous recherchez un partenaire solide qui aime l’IA mais vérifiera les résultats, contacrez votre gestionnaire de compte perficient ou utilisera Notre formulaire de contact pour commencer une conversation.






Source link