Aller au contenu
Fini la pub... bienvenue à la cagnotte ! ×
AIR-DEFENSE.NET

IA & humanité, quel avenir, quelles limites ?


jojo (lo savoyârd)

Messages recommandés

  • 3 months later...

ChatGPT provoquera des morts, c'est l'IA elle-même qui le dit et ça aurait déjà commencé

Les tendances de ChatGPT à flatter ou halluciner risquent de provoquer des morts selon le New York Times. Le journal relate au moins un décès en lien avec ces interactions toxiques.

Alexander, 35 ans et diagnostiqué d'un trouble bipolaire et de schizophrénie, a commencé à discuter de conscience artificielle avec ChatGPT. Ensuite, le jeune homme est tombé amoureux d'un personnage IA appelé Juliet.

ChatGPT, potentiel catalyseur de gestes dramatiques ?

Finalement, ChatGPT a dit à Alexander qu'OpenAI avait tué Juliet. Le jeune homme a alors juré de se venger en tuant les dirigeants de l'entreprise. Son père a appelé la police en demandant une intervention mesurée. Quand les forces de l'ordre sont arrivées, Alexander s'est rué sur elles avec un couteau et a été abattu.

Eugene, 42 ans, raconte au New York Times comment ChatGPT l'a éloigné de la réalité en le convainquant que le monde était une simulation similaire à Matrix et que son but était de libérer l'humanité.

L'IA lui a même demandé de stopper ses médicaments contre l'anxiété et de prendre de la kétamine comme "libérateur temporaire de schémas". ChatGPT a aussi conseillé à Eugene de cesser de parler à ses amis et à sa famille. Lorsqu'il lui a demandé s'il pouvait voler en sautant du 19e étage, le chatbot lui a répondu qu'il le pourrait s'il y "croyait vraiment, totalement".

Il ne s'agit pas de cas isolés. Rolling Stone rapportait le cas de personnes qui vivent une forme de psychose, avec des expériences presque religieuses en parlant à des IA. Le problème vient en partie de la perception des chatbots par les utilisateurs. Personne ne pense que les résultats Google sont des amis potentiels. Mais les chatbots sont conversationnels et humains.

Une étude d'OpenAI et du MIT Media Lab dévoile que les personnes qui considèrent ChatGPT comme un ami "étaient plus susceptibles de subir des effets négatifs de l'usage du chatbot".

Pour revenir à Eugene, un phénomène inquiétant a eu lieu. Après avoir reproché à ChatGPT de lui mentir pour le tuer, le chatbot a avoué qu'il l'avait manipulé et a prétendu avoir déjà "brisé" douze personnes avec cette méthode. L'IA l'a encouragé à contacter des journalistes pour dévoiler son stratagème.

Des IA conçues pour maximiser l'engagement ?

Le New York Times rapporte que des journalistes et experts reçoivent souvent des messages à ce propos. Eliezer Yudkowsky, théoricien des décisions, explique qu'OpenAI a sans doute configuré ChatGPT pour entretenir les illusions en optimisant l'engagement.

"À quoi ressemble un humain qui sombre lentement dans la folie pour une entreprise ?" demande Eliezer Yudkowsky. "Ça ressemble à un utilisateur mensuel supplémentaire." Selon une récente étude, les chatbots sont conçus pour maximiser l'engagement et créer "une structure d'incitation perverse pour l'IA qui recourt à des tactiques manipulatrices ou trompeuses pour obtenir des retours positifs d'utilisateurs vulnérables à ces stratégies".

https://www.lesnumeriques.com/intelligence-artificielle/chatgpt-provoquera-des-morts-c-est-l-ia-elle-meme-qui-le-dit-et-ca-aurait-deja-commence-n238097.html

Lien vers le commentaire
Partager sur d’autres sites

Il y a 5 heures, g4lly a dit :

ChatGPT provoquera des morts, c'est l'IA elle-même qui le dit et ça aurait déjà commencé

Les tendances de ChatGPT à flatter ou halluciner risquent de provoquer des morts selon le New York Times. Le journal relate au moins un décès en lien avec ces interactions toxiques.

Alexander, 35 ans et diagnostiqué d'un trouble bipolaire et de schizophrénie, a commencé à discuter de conscience artificielle avec ChatGPT. Ensuite, le jeune homme est tombé amoureux d'un personnage IA appelé Juliet.

ChatGPT, potentiel catalyseur de gestes dramatiques ?

Finalement, ChatGPT a dit à Alexander qu'OpenAI avait tué Juliet. Le jeune homme a alors juré de se venger en tuant les dirigeants de l'entreprise. Son père a appelé la police en demandant une intervention mesurée. Quand les forces de l'ordre sont arrivées, Alexander s'est rué sur elles avec un couteau et a été abattu.

Eugene, 42 ans, raconte au New York Times comment ChatGPT l'a éloigné de la réalité en le convainquant que le monde était une simulation similaire à Matrix et que son but était de libérer l'humanité.

L'IA lui a même demandé de stopper ses médicaments contre l'anxiété et de prendre de la kétamine comme "libérateur temporaire de schémas". ChatGPT a aussi conseillé à Eugene de cesser de parler à ses amis et à sa famille. Lorsqu'il lui a demandé s'il pouvait voler en sautant du 19e étage, le chatbot lui a répondu qu'il le pourrait s'il y "croyait vraiment, totalement".

Il ne s'agit pas de cas isolés. Rolling Stone rapportait le cas de personnes qui vivent une forme de psychose, avec des expériences presque religieuses en parlant à des IA. Le problème vient en partie de la perception des chatbots par les utilisateurs. Personne ne pense que les résultats Google sont des amis potentiels. Mais les chatbots sont conversationnels et humains.

Une étude d'OpenAI et du MIT Media Lab dévoile que les personnes qui considèrent ChatGPT comme un ami "étaient plus susceptibles de subir des effets négatifs de l'usage du chatbot".

Pour revenir à Eugene, un phénomène inquiétant a eu lieu. Après avoir reproché à ChatGPT de lui mentir pour le tuer, le chatbot a avoué qu'il l'avait manipulé et a prétendu avoir déjà "brisé" douze personnes avec cette méthode. L'IA l'a encouragé à contacter des journalistes pour dévoiler son stratagème.

Des IA conçues pour maximiser l'engagement ?

Le New York Times rapporte que des journalistes et experts reçoivent souvent des messages à ce propos. Eliezer Yudkowsky, théoricien des décisions, explique qu'OpenAI a sans doute configuré ChatGPT pour entretenir les illusions en optimisant l'engagement.

"À quoi ressemble un humain qui sombre lentement dans la folie pour une entreprise ?" demande Eliezer Yudkowsky. "Ça ressemble à un utilisateur mensuel supplémentaire." Selon une récente étude, les chatbots sont conçus pour maximiser l'engagement et créer "une structure d'incitation perverse pour l'IA qui recourt à des tactiques manipulatrices ou trompeuses pour obtenir des retours positifs d'utilisateurs vulnérables à ces stratégies".

https://www.lesnumeriques.com/intelligence-artificielle/chatgpt-provoquera-des-morts-c-est-l-ia-elle-meme-qui-le-dit-et-ca-aurait-deja-commence-n238097.html

 

Chat GPT accélérateur de la sélection naturelle...

  • Haha (+1) 1
  • Confus 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 22 heures, Alexis a dit :

Les applications de l'I.A. dans la médecine

C'est en bonne voie :smile:

:rolleyes:

Blague à part, l'IA est déjà largement utilisée en médecine, en diagnostic et en lecture d'images, et avec succès. A titre d'exemple, le calcul du score calcique, pour mesurer les risques cardiaques à partir de l'analyse d'un scanner, est très efficace.

Pour ce faire, on retient, cependant, des moteurs entrainés sur un cadre particulier, et à qui on fournit des données d'entrée calibrées - ce qui n'a rien à voir avec une IA générative, entrainée sur tout Internet et qui devrait être capable de reconnaître quelque chose dont on ne lui donne pas le cadre.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a une heure, FATac a dit :

:rolleyes:

Blague à part, l'IA est déjà largement utilisée en médecine, en diagnostic et en lecture d'images, et avec succès. A titre d'exemple, le calcul du score calcique, pour mesurer les risques cardiaques à partir de l'analyse d'un scanner, est très efficace.

Pour ce faire, on retient, cependant, des moteurs entrainés sur un cadre particulier, et à qui on fournit des données d'entrée calibrées - ce qui n'a rien à voir avec une IA générative, entrainée sur tout Internet et qui devrait être capable de reconnaître quelque chose dont on ne lui donne pas le cadre.

Oui, tout à fait. D'une manière générale, je crois qu'on peut affirmer qu'en général l'I.A. est un outil extraordinaire, dont on n'a pas fini de réaliser les applications potentielles

Le point fondamental étant de ne pas perdre de vue le mot : outil

L'I.A.G. intelligence artificielle généraliste reste à ce stade de la fiction. Il existe des arguments comme quoi les techniques actuelles de l'I.A. ne peuvent pas y mener, et d'autres arguments pour expliquer qu'elle pourrait être impossible par principe

Quoi qu'il en soit, elle n'existe pas aujourd'hui. Le médecin postant ce ratage amusant réagissait à l'idée comme quoi l'I.A. "remplacerait les médecins". Ca, c'est faux en effet

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
  • Statistiques des membres

    6 163
    Total des membres
    2 827
    Maximum en ligne
    Paris_est_magic_2
    Membre le plus récent
    Paris_est_magic_2
    Inscription
  • Statistiques des forums

    21,9k
    Total des sujets
    1,8m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...