Ronfly Posté(e) le 20 février Share Posté(e) le 20 février https://www.bfmtv.com/tech/intelligence-artificielle/le-chat-l-ia-generative-de-mistral-depasse-le-million-de-telechargements_AV-202502190752.html En attendant après le sommet sur l'IA, Mistral repousse en 15 jours les 1 millions de téléchargements de son application le chat... Lien vers le commentaire Partager sur d’autres sites More sharing options...
g4lly Posté(e) le 15 juin Share Posté(e) le 15 juin ChatGPT provoquera des morts, c'est l'IA elle-même qui le dit et ça aurait déjà commencé Les tendances de ChatGPT à flatter ou halluciner risquent de provoquer des morts selon le New York Times. Le journal relate au moins un décès en lien avec ces interactions toxiques. Alexander, 35 ans et diagnostiqué d'un trouble bipolaire et de schizophrénie, a commencé à discuter de conscience artificielle avec ChatGPT. Ensuite, le jeune homme est tombé amoureux d'un personnage IA appelé Juliet. ChatGPT, potentiel catalyseur de gestes dramatiques ? Finalement, ChatGPT a dit à Alexander qu'OpenAI avait tué Juliet. Le jeune homme a alors juré de se venger en tuant les dirigeants de l'entreprise. Son père a appelé la police en demandant une intervention mesurée. Quand les forces de l'ordre sont arrivées, Alexander s'est rué sur elles avec un couteau et a été abattu. Eugene, 42 ans, raconte au New York Times comment ChatGPT l'a éloigné de la réalité en le convainquant que le monde était une simulation similaire à Matrix et que son but était de libérer l'humanité. L'IA lui a même demandé de stopper ses médicaments contre l'anxiété et de prendre de la kétamine comme "libérateur temporaire de schémas". ChatGPT a aussi conseillé à Eugene de cesser de parler à ses amis et à sa famille. Lorsqu'il lui a demandé s'il pouvait voler en sautant du 19e étage, le chatbot lui a répondu qu'il le pourrait s'il y "croyait vraiment, totalement". Il ne s'agit pas de cas isolés. Rolling Stone rapportait le cas de personnes qui vivent une forme de psychose, avec des expériences presque religieuses en parlant à des IA. Le problème vient en partie de la perception des chatbots par les utilisateurs. Personne ne pense que les résultats Google sont des amis potentiels. Mais les chatbots sont conversationnels et humains. Une étude d'OpenAI et du MIT Media Lab dévoile que les personnes qui considèrent ChatGPT comme un ami "étaient plus susceptibles de subir des effets négatifs de l'usage du chatbot". Pour revenir à Eugene, un phénomène inquiétant a eu lieu. Après avoir reproché à ChatGPT de lui mentir pour le tuer, le chatbot a avoué qu'il l'avait manipulé et a prétendu avoir déjà "brisé" douze personnes avec cette méthode. L'IA l'a encouragé à contacter des journalistes pour dévoiler son stratagème. Des IA conçues pour maximiser l'engagement ? Le New York Times rapporte que des journalistes et experts reçoivent souvent des messages à ce propos. Eliezer Yudkowsky, théoricien des décisions, explique qu'OpenAI a sans doute configuré ChatGPT pour entretenir les illusions en optimisant l'engagement. "À quoi ressemble un humain qui sombre lentement dans la folie pour une entreprise ?" demande Eliezer Yudkowsky. "Ça ressemble à un utilisateur mensuel supplémentaire." Selon une récente étude, les chatbots sont conçus pour maximiser l'engagement et créer "une structure d'incitation perverse pour l'IA qui recourt à des tactiques manipulatrices ou trompeuses pour obtenir des retours positifs d'utilisateurs vulnérables à ces stratégies". https://www.lesnumeriques.com/intelligence-artificielle/chatgpt-provoquera-des-morts-c-est-l-ia-elle-meme-qui-le-dit-et-ca-aurait-deja-commence-n238097.html Lien vers le commentaire Partager sur d’autres sites More sharing options...
Shorr kan Posté(e) le 15 juin Share Posté(e) le 15 juin Il y a 5 heures, g4lly a dit : ChatGPT provoquera des morts, c'est l'IA elle-même qui le dit et ça aurait déjà commencé Les tendances de ChatGPT à flatter ou halluciner risquent de provoquer des morts selon le New York Times. Le journal relate au moins un décès en lien avec ces interactions toxiques. Alexander, 35 ans et diagnostiqué d'un trouble bipolaire et de schizophrénie, a commencé à discuter de conscience artificielle avec ChatGPT. Ensuite, le jeune homme est tombé amoureux d'un personnage IA appelé Juliet. ChatGPT, potentiel catalyseur de gestes dramatiques ? Finalement, ChatGPT a dit à Alexander qu'OpenAI avait tué Juliet. Le jeune homme a alors juré de se venger en tuant les dirigeants de l'entreprise. Son père a appelé la police en demandant une intervention mesurée. Quand les forces de l'ordre sont arrivées, Alexander s'est rué sur elles avec un couteau et a été abattu. Eugene, 42 ans, raconte au New York Times comment ChatGPT l'a éloigné de la réalité en le convainquant que le monde était une simulation similaire à Matrix et que son but était de libérer l'humanité. L'IA lui a même demandé de stopper ses médicaments contre l'anxiété et de prendre de la kétamine comme "libérateur temporaire de schémas". ChatGPT a aussi conseillé à Eugene de cesser de parler à ses amis et à sa famille. Lorsqu'il lui a demandé s'il pouvait voler en sautant du 19e étage, le chatbot lui a répondu qu'il le pourrait s'il y "croyait vraiment, totalement". Il ne s'agit pas de cas isolés. Rolling Stone rapportait le cas de personnes qui vivent une forme de psychose, avec des expériences presque religieuses en parlant à des IA. Le problème vient en partie de la perception des chatbots par les utilisateurs. Personne ne pense que les résultats Google sont des amis potentiels. Mais les chatbots sont conversationnels et humains. Une étude d'OpenAI et du MIT Media Lab dévoile que les personnes qui considèrent ChatGPT comme un ami "étaient plus susceptibles de subir des effets négatifs de l'usage du chatbot". Pour revenir à Eugene, un phénomène inquiétant a eu lieu. Après avoir reproché à ChatGPT de lui mentir pour le tuer, le chatbot a avoué qu'il l'avait manipulé et a prétendu avoir déjà "brisé" douze personnes avec cette méthode. L'IA l'a encouragé à contacter des journalistes pour dévoiler son stratagème. Des IA conçues pour maximiser l'engagement ? Le New York Times rapporte que des journalistes et experts reçoivent souvent des messages à ce propos. Eliezer Yudkowsky, théoricien des décisions, explique qu'OpenAI a sans doute configuré ChatGPT pour entretenir les illusions en optimisant l'engagement. "À quoi ressemble un humain qui sombre lentement dans la folie pour une entreprise ?" demande Eliezer Yudkowsky. "Ça ressemble à un utilisateur mensuel supplémentaire." Selon une récente étude, les chatbots sont conçus pour maximiser l'engagement et créer "une structure d'incitation perverse pour l'IA qui recourt à des tactiques manipulatrices ou trompeuses pour obtenir des retours positifs d'utilisateurs vulnérables à ces stratégies". https://www.lesnumeriques.com/intelligence-artificielle/chatgpt-provoquera-des-morts-c-est-l-ia-elle-meme-qui-le-dit-et-ca-aurait-deja-commence-n238097.html Chat GPT accélérateur de la sélection naturelle... 1 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alexis Posté(e) le 17 juin Share Posté(e) le 17 juin Les applications de l'I.A. dans la médecine C'est en bonne voie 4 Lien vers le commentaire Partager sur d’autres sites More sharing options...
FATac Posté(e) le 18 juin Share Posté(e) le 18 juin Il y a 22 heures, Alexis a dit : Les applications de l'I.A. dans la médecine C'est en bonne voie Blague à part, l'IA est déjà largement utilisée en médecine, en diagnostic et en lecture d'images, et avec succès. A titre d'exemple, le calcul du score calcique, pour mesurer les risques cardiaques à partir de l'analyse d'un scanner, est très efficace. Pour ce faire, on retient, cependant, des moteurs entrainés sur un cadre particulier, et à qui on fournit des données d'entrée calibrées - ce qui n'a rien à voir avec une IA générative, entrainée sur tout Internet et qui devrait être capable de reconnaître quelque chose dont on ne lui donne pas le cadre. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Alexis Posté(e) le 18 juin Share Posté(e) le 18 juin il y a une heure, FATac a dit : Blague à part, l'IA est déjà largement utilisée en médecine, en diagnostic et en lecture d'images, et avec succès. A titre d'exemple, le calcul du score calcique, pour mesurer les risques cardiaques à partir de l'analyse d'un scanner, est très efficace. Pour ce faire, on retient, cependant, des moteurs entrainés sur un cadre particulier, et à qui on fournit des données d'entrée calibrées - ce qui n'a rien à voir avec une IA générative, entrainée sur tout Internet et qui devrait être capable de reconnaître quelque chose dont on ne lui donne pas le cadre. Oui, tout à fait. D'une manière générale, je crois qu'on peut affirmer qu'en général l'I.A. est un outil extraordinaire, dont on n'a pas fini de réaliser les applications potentielles Le point fondamental étant de ne pas perdre de vue le mot : outil L'I.A.G. intelligence artificielle généraliste reste à ce stade de la fiction. Il existe des arguments comme quoi les techniques actuelles de l'I.A. ne peuvent pas y mener, et d'autres arguments pour expliquer qu'elle pourrait être impossible par principe Quoi qu'il en soit, elle n'existe pas aujourd'hui. Le médecin postant ce ratage amusant réagissait à l'idée comme quoi l'I.A. "remplacerait les médecins". Ca, c'est faux en effet Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant