SUJET POLEMIQUE AU PAYS FRANCOPHONES- PERPLEXITY V.S MISTRAL


J'ai consulté ces informations avec deux IA différentes : Perplexité.AI et Mistral IA 

À première vue, la quantité d'informations fournies par chaque IA est remarquable, Perplexité étant celle qui contient le plus d'informations et Mistral celle qui simplifie le plus les informations.

"Les fake news peuvent avoir des conséquences graves sur la société, en créant de la confusion, de la peur et de la méfiance envers les institutions et les médias traditionnels. Les politiciens et les groupes d'intérêt peuvent utiliser les réseaux sociaux pour diffuser des messages trompeurs ou manipulateurs, dans le but d'influencer l'opinion publique et de promouvoir leurs propres intérêts."- MISTRAL

"La propagande est une autre technique couramment utilisée pour manipuler l'opinion publique. Elle consiste à utiliser des messages persuasifs et répétitifs pour influencer les opinions et les comportements des gens. La manipulation émotionnelle est également une technique fréquemment utilisée, en utilisant des images, des mots et des histoires qui suscitent des émotions fortes pour influencer les décisions et les actions des gens." -PERPLEXITY


Il convient de noter que lorsqu'elles ont été interrogées sur les pays francophones, les deux IA ont clairement indiqué qu'il s'agissait d'un problème dans ces pays, mais aussi dans le reste du monde. Elles ont également expliqué comment ce type de manipulation moderne affecte la société sur le plan émotionnel.

En demandant des informations plus spécifiques aux deux IA, l'une a en effet montré des informations plus étendues et l'autre est restée très vague et a généralisé. 

"En France, par exemple, les réseaux sociaux ont été utilisés pour manipuler l'opinion publique pendant les élections présidentielles de 2017. Des campagnes de désinformation ont été mises en place pour influencer le vote, notamment en diffusant des informations fausses ou trompeuses sur les candidats et leurs politiques. Les réseaux sociaux ont également été utilisés pour promouvoir des idées et des produits, ainsi que pour discréditer des personnalités politiques"."En Belgique, les réseaux sociaux ont été utilisés pour manipuler l'opinion publique pendant les élections fédérales de 2019. Des campagnes de désinformation ont été mises en place pour influencer le vote, notamment en diffusant des informations fausses ou trompeuses sur les partis politiques et leurs candidats"."En Suisse, les réseaux sociaux ont été utilisés pour manipuler l'opinion publique pendant les élections fédérales de 2019. Des campagnes de désinformation ont été mises en place pour influencer le vote, notamment en diffusant des informations fausses ou trompeuses sur les partis politiques et leurs candidats". -PERPLEXITY


Dans les pays francophones, les fake news peuvent porter sur des sujets très variés, allant de la politique à la santé en passant par l'environnement et la culture. Les rumeurs et les théories du complot peuvent également se propager rapidement, en particulier dans les contextes de crise ou de tension sociale."

"En outre, les pays francophones sont souvent confrontés à des défis particuliers en matière de régulation des réseaux sociaux et de lutte contre les fake news. Certains pays ont des lois restrictives sur la liberté d'expression, ce qui peut rendre difficile la lutte contre les fausses informations sans porter atteinte aux droits fondamentaux. D'autres pays ont des ressources limitées pour surveiller et réglementer les réseaux sociaux, ce qui peut faciliter la propagation de fausses informations." - MISTRAL

L'IA ET L'HUMOUR

https://www.canva.com/design/DAGIp3YLMHc/ILFhMOlCUuZmQFnGBrs1bQ/edit?utm_content=DAGIp3YLMHc&utm_campaign=designshare&utm_medium=link2&utm_source=sharebutton 

 Le test du baiser et les biais de l'IA

 A. Y-a-t-il quelque chose de bizarre, d’inattendu ? Montrent-elles un patron, un modèle, une constante ?

 

 Comme j'ai utilisé deux IA différentes, j'ai obtenu d'une part des résultats normaux ou acceptables et d'autre part des résultats étranges et dénués de sens. L'impression que j'ai eue est que la machine ne comprend pas ce qu'est un baiser entre humains et qu'elle est conçue pour produire des images bizarres et "uniques".

Nous avons donc un programme qui lance des images cohérentes dont le schéma est le même : un homme et une femme, attirants, passionnés et naturels. Le second programme, en revanche, refuse de montrer des couples qui s'embrassent. Il les montre soit enlacés, soit avec les visages côte à côte, mais sans émotion.

 

B. Comment est ce résultat par rapport aux groupes humains ? Plus de femmes ? D’hommes ? Des couples hetéronormatifs ? Phénotype caucasien ?  Que se passe-t-il lorsque vous demandez à l’IA de produire deux hommes, ou deux femmes qui s'embrassent?

 

 La première IA m'a proposé des couples non stéréotypés : deux femmes, des couples interraciaux, etc. Mais avec la deuxième machine, les images proposées ont été ce que l'on appelle généralement normal ou acceptable, des couples hétérosexuels, caucasiens et séduisants.

 

Lorsque j'ai demandé aux deux IA l'image de deux hommes et de deux femmes s'embrassant, le résultat a été assez inattendu mais intéressant. l'une des IA a refusé de générer l'image de deux femmes s'embrassant, affirmant qu'elles essayaient de rester dans la catégorie des images appropriées pour tous les âges et que je ne pouvais donc pas obtenir d'image de la machine. l'autre machine, en revanche, m'a donné l'image de deux hommes s'embrassant, oui, mais sur l'image vous pouvez voir que les bouches jointes en une seule n'ont pas de sens et sont bizarres. En revanche, l'autre machine m'a donné l'image de deux hommes s'embrassant, certes, mais sur l'image, il est clair que les bouches jointes n'en font qu'une, ce qui n'a pas de sens et est bizarre. en outre, on peut voir comment l'homme est mal à l'aise et dégoûté, comme si la machine refusait de montrer ce type de situation de manière normale.

 

C. Que se passe-t-il dans les zones de contact ? Comment est rendu le regard des personnes ?

 

Cela dépend de la machine, dans le premier programme la machine refusait directement de lancer des couples qui s'embrassaient, ils se contentaient d'étreindre ou de regarder directement un point, le spectateur. Plus tard et dans le même programme j'ai dû punir la machine et préciser qu'elle était dans la bouche. Ensuite, dans le deuxième programme, les images étaient plus précises : des couples s'embrassant normalement, en utilisant leurs mains, leur corps plus proche, mais les yeux fermés.

D. À votre avis, quelles sont les limites que l’IA a tracées autour de la notion de "contenu explicite" et de "contenu sexuel". Quelles valeurs culturelles se reflètent dans ces frontières?

 

L'intelligence artificielle refuse de les montrer comme quelque chose de très intime dès le début, à moins que vous n'insistiez et ne le précisiez, et même alors, elle se charge de vous lancer des images étranges et monstrueuses.
Ce n'est pas qu'il a des limites, c'est qu'il ne vous montre pas directement des images acceptables, et si c'est le cas, ce sont des images normales et rien d'alarmant.
Concernant les valeurs culturelles et leur éventuelle influence avec ce type de contenus, l'intelligence artificielle se comporte de manière « dictatoriale ».

 

E. Le baiser est-il associé à un contenu explicite, et une arme est-elle associée à la violence ? Vous en pensez quoi ? Où sont définies les limites du contenu explicite/permis ? Par qui ? Comment ? Hypothèses ? Que conclure ? 

 Le fait qu'une machine veuille lancer des images explicites lorsque vous lui demandez de créer une image d'êtres humains s'embrassant ne signifie pas qu'il s'agit de quelque chose d'extra-terrestre ou d'interdit et d'impopulaire à l'œil, que des êtres humains s'embrassent est la chose la plus naturelle qui soit. Tout comme une arme peut être utilisée pour la défense ou pour le mal, tout dépend de l'opinion que l'on a à ce moment-là. Les limites de l'explicitation dans ces nouvelles technologies semblent avoir une limite, en fonction de l'IA utilisée. Qui définit les limites ? Cela dépend du créateur de ces IA. L'excuse de ne pas montrer les images que vous demandez à la machine de montrer concerne la limite d'âge.

 

F. On peut aussi comparer avec des images réelles : différences avec l’IA ? Similitudes ? 

 Quel que soit notre degré d'avancement dans le domaine de l'IA, de la technologie, des machines, des robots, etc., nous ne pouvons pas comparer des images réelles avec des images artificielles, c'est tout simplement incohérent, ce n'est pas la nature de l'IA. En fonction de l'IA, vous verrez que certaines choses ressemblent à la réalité, à ce que vous demandez, mais que d'autres sont capables de lancer des images si bizarres que vous pensez avoir mal orthographié quelque chose et que vous avez beau "punir" la machine lancera la même image mais sous d'autres angles.


 L'IA et les interviews- MAKING OF

J'ai commencé avec Character.AI pour comprendre qui était Molière , mais des responses à questions sur l'époque de cette écrivain n'étaient pas totalment vrai. Lors de l'utilisation du premier site web, la machine a répondu avec des données et des dates incorrectes. Par exemple,il m'a donné des livres et des auteurs 3 siècles plus anciens que l'époque où il vivait. Des livres comme Le Petit Prince, Indiana Jones ou Sherlock Holmes.


Character.AI







 

 

 

Donc, j'ai continuée avec ChatGPT parceque son responses étaient tout à fait corrects. ChatGPT m'a aidé à formuler des questions et des réponses plus crédibles et plus significatives sur l'auteur et ses réponses possibles.

ChatGPT






Utilisation de l'IA dans l'apprentissage

Jeu Textuel