Aller au contenu
Fini la pub... bienvenue à la cagnotte ! ×
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Messages recommandés

Il y a 9 heures, Wallaby a dit :

Le résultat serait une musique plus plate et répétitive, qui ressasse toujours les mêmes effets, sans créativité.

t'as le même phénomène sur les dessins d'illustrations et certaines photos (mouvement qu'avait déjà bien instagram avec son "calibrage"). Je dois reconnaitre qu'il y a de vrais prompt artistes, mais dans la majorité des cas c'est sans saveurs et on à l'impression de voir toujours le même dessin

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

https://www.heise.de/blog/OpenAI-und-Microsoft-Der-Tragoedie-zweiter-Teil-9829408.html (12 août 2024)

Trois semaines après la WWDC, on apprend qu'Apple obtient un siège au conseil d'administration d'OpenAI, également en tant que Board Observer, ce qui n'a pas dû plaire à Microsoft. La personne qui doit occuper ce poste pour Apple n'est autre que Phil Schiller, ancien directeur marketing d'Apple et dernièrement directeur de l'App Store.

Exactement une semaine plus tard, le 10 juillet, Microsoft quitte à la surprise générale son siège au conseil d'administration d'OpenAI. A première vue, cela ressemble à un comportement enfantin, mais ce n'est pas le cas, car le même jour, Apple quitte également son siège au conseil d'administration, à la surprise générale, après seulement une semaine.

On se demande bien sûr ce que signifie ce va-et-vient : Quelles en sont les raisons ? Il est tout à fait étrange que les représentants de Microsoft et d'Apple quittent le conseil d'administration d'OpenAI le même jour, alors qu'Apple n'y était représenté que depuis une semaine. Comme on le sait désormais, c'est l'autorité américaine de surveillance des marchés financiers ou l'autorité antitrust qui est à l'origine de cette décision. Car même s'il semble que l'on puisse plus ou moins faire ce que l'on veut dans le secteur technologique aux Etats-Unis, tout a ses limites : Les autorités américaines commencent à s'inquiéter de l'influence des grands groupes technologiques (dans ce cas, Microsoft et Apple) sur une entreprise potentiellement importante pour l'avenir de l'humanité comme OpenAI.

Et je ne sais pas ce qu'il en est pour vous, mais personnellement, je n'aime pas du tout le fait que ce va-et-vient ne concerne manifestement que des intérêts financiers et le pouvoir du marché, et qu'il ne s'agit absolument pas de savoir comment ou si cette technologie sera utilisée pour le bien de l'humanité, si elle sera développée dans la bonne direction, si les questions éthiques seront prises en compte, etc.

Bien sûr, on peut dire que ce n'est pas non plus le rôle des entreprises de s'occuper de ces questions, mais il faut alors peut-être aussi dire que, même si c'est juste, de telles technologies n'ont peut-être pas leur place entre leurs mains. Personnellement, je trouve cela extrêmement préoccupant. Et le pire, c'est que lorsque OpenAI a été créée il y a presque dix ans, c'était précisément l'objectif : créer une organisation à but non lucratif qui s'occupe du développement de l'intelligence artificielle et de sa compatibilité avec le bien-être et l'avenir de toute l'humanité.

Lien vers le commentaire
Partager sur d’autres sites

https://www.windowscentral.com/software-apps/former-google-boss-bets-on-nvidia-in-the-ai-race (19 août 2024)

Plus tôt cette année, Microsoft et OpenAI ont investi plus de 100 milliards de dollars pour se libérer des entraves et de la dépendance excessive envers NVIDIA pour les puces d'IA. Le projet baptisé Stargate est un centre de données conçu pour soutenir les avancées des deux entreprises en matière d'IA en répondant à leur forte demande de GPU.

Selon les sources, Stargate devrait être lancé en 2028. Cependant, les projections indiquent que 30 % des projets d'IA seront abandonnés d'ici 2028 après la preuve de concept, et les besoins exorbitants en eau et en électricité de cette technologie suscitent une inquiétude croissante.

https://www.fool.com/investing/2024/08/18/is-nvidia-the-future-of-ai-or-a-bubble-waiting-to/

Nvidia connaît une incroyable progression depuis le début de l’année 2023. L’action a augmenté d’environ 700 % et a été alimentée par une croissance impressionnante des revenus et des bénéfices tout au long du parcours. On peut établir un lien direct entre cette performance et la demande en intelligence artificielle (IA).

Mais lorsqu’un battage médiatique massif entoure une technologie, les entreprises qui y participent peuvent se retrouver prises dans une bulle d’investissement. Lorsque cette bulle éclate, il peut falloir des années (ou des décennies) pour qu’elle se rétablisse. Alors, Nvidia est-elle le fournisseur du futur ? Ou s’agit-il d’une bulle qui attend d’éclater ?

La meilleure comparaison avec la ruée vers l’or de l’IA actuelle est peut-être l’essor d’Internet à la fin des années 1990 et au début des années 2000. Des entreprises comme Cisco et Oracle étaient les fers de lance du marché boursier avec les équipements réseau nécessaires pour proliférer sur Internet. Cependant, cette bulle a éclaté et il a fallu près de deux décennies à Oracle pour atteindre un nouveau sommet, tandis que Cisco est toujours en dessous de son record historique.

https://www.legaldive.com/news/nvidia-open-ai-face-youtube-creator-lawsuits-for-using-online-videos/724498/ (16 août 2024)

Le procès intenté par Millette contre OpenAI accuse cette société d’avoir récupéré plus d’un million d’heures de vidéo sur YouTube en utilisant des « moyens automatisés » tels que des robots ou des récupérateurs de vidéos programmés.

Nvidia a également réquisitionné des vidéos de Netflix et d’autres sources en ligne, selon le rapport de 404 Media, qui cite un ancien employé de Nvidia ayant obtenu l’anonymat.

« Tout le monde est libre d’apprendre des faits et des idées à partir de sources accessibles au public », a déclaré Nvidia dans sa déclaration en réponse au procès. « Créer des œuvres nouvelles et transformatrices est non seulement juste et équitable, mais c’est exactement ce que notre système juridique encourage. »

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

https://www.huaweicentral.com/huawei-set-to-challenge-nvidias-dominance-in-ai-chip-market/ (18 août 2024)

Huawei aurait préparé une puce IA Ascend 910C pour affronter Nvidia sur le marché chinois. L'entreprise travaille sur ce nouveau produit depuis des mois. Il semble désormais prêt et pourrait se lancer dans la bataille des chipsets d'ici octobre.

Dans un contexte de tensions persistantes entre les États-Unis et la Chine sur les puces, la nouvelle puce de Huawei semble être un puissant coup contre Nvidia.

Les contrôles commerciaux imposés par les États-Unis à la Chine ont également interdit à Nvidia de vendre des processeurs d’intelligence artificielle avancés dans la région. En conséquence, l’entreprise a vendu de nouvelles puces sur le marché chinois, mais avec une faible puissance de calcul, ce qui n’a pas beaucoup attiré les consommateurs.

Après les sanctions américaines qui ont frappé Huawei en 2019, il lui a fallu beaucoup de temps pour se relever et retrouver son élan sur le marché. Mais les choses s’améliorent progressivement.

Le fabriquant chinois a non seulement amélioré son classement sur le marché intérieur des smartphones et des tablettes, mais a également regagné une certaine valeur sur le marché mondial. Il a même renforcé son secteur de recherche et développement pour fabriquer des chipsets plus puissants. Avec tous ces changements, il semble que Huawei soit prêt à défier la domination de Nvidia sur le marché des puces IA.

Lien vers le commentaire
Partager sur d’autres sites

https://responsiblestatecraft.org/silicon-valley/ (20 août 2024)

Open AI a récemment intégré à son conseil d'administration Paul M. Nakasone, ancien général de l'armée américaine et directeur de la National Security Agency.

https://responsiblestatecraft.org/former-nsa-chief-revolves-through-openai-s-door/ (1er juillet 2024)

L'entreprise collabore actuellement avec le Pentagone sur des outils liés à la cybersécurité pour prévenir le suicide des vétérans.

https://www.npr.org/2023/05/01/1173142164/ai-could-help-reduce-military-suicides-nonprofit-hopes (1er mai 2024)

Un nouveau projet d'un groupe à but non lucratif de Caroline du Nord utilise l'intelligence artificielle pour mieux comprendre et peut-être réduire les suicides chez les militaires. Le projet est financé par le VA. Il analyse les données des téléphones portables des personnes qui mettent fin à leurs jours.

https://www.stripes.com/veterans/2024-01-17/openai-pentagon-collaboration-12704691.html (17 janvier 2024)

L'entreprise d'intelligence artificielle à l'origine du populaire chatbot ChatGPT s'est associée au ministère de la défense pour explorer les possibilités d'utiliser sa technologie afin de prévenir le suicide des anciens combattants.

Il s'agit de l'une des nombreuses initiatives en cours entre OpenAI et le Pentagone, a déclaré Anna Makanju, vice-présidente des affaires mondiales de l'entreprise, lors d'une interview accordée à Bloomberg House mardi, dans le cadre d'une discussion ouverte au Forum économique mondial de Davos, en Suisse.

Ces commentaires font suite à la suppression par OpenAI, la semaine dernière, d'une formulation sur sa page de politique d'utilisation qui interdisait à sa technologie les « applications militaires et de guerre », ce qui a suscité l'inquiétude de ceux qui se méfient de la militarisation de l'IA.

Cependant, OpenAI affirme qu'elle maintient l'interdiction d'utiliser ses outils pour développer des armes, détruire des biens ou nuire à des personnes, des stipulations qui figurent toujours dans sa politique.

La formulation a été modifiée pour apporter plus de nuance, car certaines activités affiliées à l'armée sont « alignées sur ce que nous voulons voir dans le monde », a déclaré M. Makanju lors de l'entretien enregistré.

« Nous travaillons avec le ministère de la défense sur des outils de cybersécurité pour les logiciels libres qui sécurisent les infrastructures critiques », a déclaré M. Makanju. « Nous étudions la possibilité de contribuer à la prévention du suicide des anciens combattants.

Elle n'a pas donné plus de détails sur ces programmes.

Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...

https://www.theguardian.com/technology/article/2024/aug/27/mark-zuckerberg-says-white-house-pressured-facebook-to-censor-covid-19-content

Mark Zuckerberg déclare que la Maison Blanche a fait pression sur Facebook pour qu'il censure le contenu de Covid-19

Le patron de Meta regrette de s'être plié au pouvoir du gouvernement et affirme qu'il ne ferait pas les mêmes choix aujourd'hui.

Le patron de Meta, Mark Zuckerberg, a déclaré qu'il regrettait d'avoir cédé à ce qui, selon lui, était une pression du gouvernement américain pour censurer les messages concernant le Covid sur Facebook et Instagram pendant la pandémie.

Mark Zuckerberg a déclaré que de hauts responsables de la Maison Blanche, dans l'administration de Joe Biden, avaient « exercé des pressions répétées » sur Meta, la société mère de Facebook et d'Instagram, pour qu'elle « censure certains contenus sur le Covid-19 » pendant la pandémie.

« En 2021, des hauts fonctionnaires de l'administration Biden, y compris de la Maison Blanche, ont exercé des pressions répétées sur nos équipes pendant des mois pour qu'elles censurent certains contenus Covid-19, y compris l'humour et la satire, et ont exprimé beaucoup de frustration à l'égard de nos équipes lorsque nous n'étions pas d'accord », a-t-il déclaré dans une lettre adressée à Jim Jordan, le chef de la commission judiciaire de la Chambre des représentants des États-Unis. « Je pense que la pression exercée par le gouvernement était erronée.

Pendant la pandémie, Facebook a ajouté des alertes à la désinformation pour les utilisateurs qui commentaient ou aimaient des messages considérés comme contenant de fausses informations sur Covid.

La société a également supprimé les messages critiquant les vaccins Covid et suggérant que le virus avait été mis au point dans un laboratoire chinois.
Trump parle dans le micro lors d'un rassemblement
Meta lève les restrictions sur les comptes Facebook et Instagram de Trump
En savoir plus

Lors de la campagne pour l'élection présidentielle américaine de 2020, Joe Biden a accusé les plateformes de médias sociaux telles que Facebook de « tuer les gens » en autorisant la désinformation sur les vaccins contre le coronavirus.

« Je pense que nous avons fait des choix que nous ne ferions pas aujourd'hui, avec le recul et de nouvelles informations », a déclaré Mark Zuckerberg. « Je regrette que nous n'ayons pas été plus francs à ce sujet ».

« Comme je l'ai dit à nos équipes à l'époque, je suis convaincu que nous ne devons pas compromettre nos normes de contenu sous la pression d'une administration, quelle qu'elle soit. Et nous sommes prêts à réagir si quelque chose comme cela se reproduit ».

M. Zuckerberg a également déclaré que Facebook avait « temporairement rétrogradé » un article sur le contenu d'un ordinateur portable appartenant à Hunter Biden, le fils du président, après un avertissement du FBI selon lequel la Russie préparait une campagne de désinformation contre les Biden.

M. Zuckerberg a écrit qu'il était devenu clair depuis que l'article n'était pas de la désinformation et que « rétrospectivement, nous n'aurions pas dû rétrograder l'article ».

https://www.racket.news/p/zuckerberg-defies-the-borg

Le 9 avril, le président de la commission judiciaire de la Chambre des représentants, Jim Jordan, a envoyé une lettre au PDG de Meta, Mark Zuckerberg, lui rappelant qu'il avait fait l'objet d'une assignation en vue d'obtenir des informations sur les communications entre Meta, le FBI et « l'influence étrangère présumée ou l'intégrité des élections ». Le bureau de M. Jordan a ensuite publié une série de « Facebook Files », révélant des documents montrant que les dirigeants de Meta s'inquiétaient des « pressions continues... y compris de la part de la Maison Blanche » pour supprimer des contenus.

Lien vers le commentaire
Partager sur d’autres sites

  • 3 weeks later...

https://www.lemonde.fr/economie/article/2024/09/20/les-consommateurs-britanniques-se-rebellent-contre-la-domination-de-google_6325321_3234.html

Les plaintes collectives se multiplient au Royaume-Uni à l’encontre du groupe californien [Google], l’accusant de pratiques anticoncurrentielles. L’ensemble des sommes réclamées approche les 26 milliards d’euros.

Ce monopole – et l’absence de concurrence qu’il suscite – permet à Google de vendre ses espaces publicitaires à des prix surfaits. Elle cite une enquête de la Competition and Markets Authority, le régulateur de la concurrence au Royaume-Uni, qui a démontré que le coût par clic, soit le montant facturé à un annonceur lorsqu’un internaute clique sur sa publicité en ligne, était 30 % à 40 % plus cher chez Google que chez Bing.

« Ces surcoûts sont alors répercutés sur les consommateurs », poursuit la cofondatrice de Consumer Voice. Et comme quasi tous les commerces britanniques font de la pub sur Google, la pratique a un impact généralisé sur le prix des biens vendus au Royaume-Uni.

Lien vers le commentaire
Partager sur d’autres sites

https://lvsl.fr/technopolitique-dasma-mhalla-la-democratie-du-nous-contre-eux/ (16 mai 2024)

Asma Mhalla Technopolitique – Comment la technologie fait de nous des soldats

Les technologies de « l’hypervitesse » menacent les démocraties libérales, infiltrent les moindres interstices de nos vies, jusqu’à véroler de l’intérieur la construction d’un régime de vérité partagé. En cause, un projet de « Technologie Totale (…) par sa volonté de puissance et de contrôle hors limite » (p. 13), indifférent aux opinions politiques, compatible avec « tous les clivages et antagonismes traditionnels » (p. 36), et surtout, en voie de militarisation.

Une « guerre cognitive » gronderait, avec pour champ de bataille nos cerveaux, nouvelles cibles bientôt altérées par les implants Neuralink (Elon Musk) dans le but de « lire vos pensées et de modeler votre esprit » (p. 126) : une forme de guerre de l’opium 2.0.

En plus des risques liés à la convergence déjà consommée de l’intelligence artificielle et des armées, sont pointés les enchevêtrements entre intérêts publics et privés, faisant émerger un dilemme insoluble entre « Big Tech » et « Big State », la relation entre les deux étant « liquide, variable, lunatique, ambivalent[e] » (p. 150).

Si certaines conditions sont posées à cette capitulation (et notamment « l’inter-nationalisation » des « Big Tech » dans le but d’en faire des « bien communs immatériels propres aux pays de l’Alliance » p. 239), reste un paradoxe, celui d’avoir longuement déplié la liste des controverses suscitées par ces mêmes « Big Tech » au cours de la décennie passée (Facebook, Clearview, Palantir et tant d’autres), pour finir dans leurs bras, pour ne dire sous leur joug – en postulant que ceux-là se laisseront faire quand il s’agira de les mettre au service du bien commun.

Cette idée se double d’une proposition plus générale encore : assumer juridiquement la fusion Europe / États-Unis et sa composante civilisationnelle, à travers une « “souveraineté élargie”, une co-gouvernance transatlantique solidaire, une Alliance Technologique de nouvelle génération à laquelle le citoyen, le Big Citizen, prendrait part en se présentant directement face aux deux autres pôles, Big Tech et Big State » (p. 231). Comment ?

 

Lien vers le commentaire
Partager sur d’autres sites

Le 22/09/2024 à 10:24, Wallaby a dit :

https://www.lemonde.fr/economie/article/2024/09/20/les-consommateurs-britanniques-se-rebellent-contre-la-domination-de-google_6325321_3234.html

Les plaintes collectives se multiplient au Royaume-Uni à l’encontre du groupe californien [Google], l’accusant de pratiques anticoncurrentielles. L’ensemble des sommes réclamées approche les 26 milliards d’euros.

Ce monopole – et l’absence de concurrence qu’il suscite – permet à Google de vendre ses espaces publicitaires à des prix surfaits. Elle cite une enquête de la Competition and Markets Authority, le régulateur de la concurrence au Royaume-Uni, qui a démontré que le coût par clic, soit le montant facturé à un annonceur lorsqu’un internaute clique sur sa publicité en ligne, était 30 % à 40 % plus cher chez Google que chez Bing.

« Ces surcoûts sont alors répercutés sur les consommateurs », poursuit la cofondatrice de Consumer Voice. Et comme quasi tous les commerces britanniques font de la pub sur Google, la pratique a un impact généralisé sur le prix des biens vendus au Royaume-Uni.

L'astuce/ la ligne de défense qu'utilise Google pour nier détenir un monopole sur les annonces internet, est de comparer sa part de marché à celle de TOUT le secteur de la publicité dont elle ne représente qu'une petite part. Malin...

  • Haha (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...

https://www.futura-sciences.com/tech/actualites/technologie-peres-fondateurs-ia-previent-personne-ne-sait-vraiment-si-nous-serons-capables-controler-116635/ (9 octobre 2024)

Après avoir reçu le prix Nobel de physique, Geoffrey Hinton, l’un des pères fondateurs de l’intelligence artificielle, a répondu à une série de questions par visioconférence. Il a de nouveau exprimé ses craintes par rapport à l’IA et a même critiqué Sam Altman.

« Ce qui m'inquiète, c'est que cela peut aussi conduire à de mauvaises choses, en particulier lorsque nous obtenons des choses plus intelligentes que nous-mêmes. Personne ne sait vraiment si nous serons capables de les contrôler »

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

  • 2 months later...

https://www.la-croix.com/international/yuval-noah-harari-l-ia-peut-si-nous-le-decidons-etre-au-service-du-bien-commun-20241230

Yuval Noah Harari :

Prenons un exemple récent, qui est très parlant à mon sens. L’entreprise OpenAI, qui a développé le robot conversationnel GPT-4, a testé cette IA sur un point précis : les chercheurs lui ont demandé de résoudre un test captcha (un test où l’on demande à l’internaute d’identifier un signe visuel – une lettre ou un objet – pour prouver qu’il est bien un humain, et non un robot, NDLR). Il se trouve que GPT-4 ne sait pas résoudre un captcha. Et bien qu’est-ce qu’a fait cette IA ? Elle a sous-traité cette tâche à des humains, qu’elle a contactés en ligne. Ces derniers, qui trouvaient cela suspect, lui ont demandé si elle était bien un humain. Et l’IA leur a répondu : « Je suis un humain, mais j’ai une déficience visuelle. »

Que retenir de cette expérience ? Ce sont bien des humains – vous avez raison – qui ont donné un objectif précis à GPT-4. En revanche, personne ne lui a dit de mentir… L’IA a jugé, à partir de toutes les options possibles, que c’était le meilleur moyen d’atteindre son but. Soyons clairs : l’IA n’a aucune conscience. En faisant le choix de mentir, GPT-4 n’a éprouvé aucun plaisir à manipuler l’humain. Elle a juste fait preuve d’intelligence en prenant une décision très pertinente. Et on n’a encore rien vu… L’IA n’a que 10 ans. Ses développements vont être exponentiels.

  • Merci (+1) 1
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a 40 minutes, Wallaby a dit :

https://www.la-croix.com/international/yuval-noah-harari-l-ia-peut-si-nous-le-decidons-etre-au-service-du-bien-commun-20241230

Yuval Noah Harari :

Prenons un exemple récent, qui est très parlant à mon sens. L’entreprise OpenAI, qui a développé le robot conversationnel GPT-4, a testé cette IA sur un point précis : les chercheurs lui ont demandé de résoudre un test captcha (un test où l’on demande à l’internaute d’identifier un signe visuel – une lettre ou un objet – pour prouver qu’il est bien un humain, et non un robot, NDLR). Il se trouve que GPT-4 ne sait pas résoudre un captcha. Et bien qu’est-ce qu’a fait cette IA ? Elle a sous-traité cette tâche à des humains, qu’elle a contactés en ligne. Ces derniers, qui trouvaient cela suspect, lui ont demandé si elle était bien un humain. Et l’IA leur a répondu : « Je suis un humain, mais j’ai une déficience visuelle. »

Que retenir de cette expérience ? Ce sont bien des humains – vous avez raison – qui ont donné un objectif précis à GPT-4. En revanche, personne ne lui a dit de mentir… L’IA a jugé, à partir de toutes les options possibles, que c’était le meilleur moyen d’atteindre son but. Soyons clairs : l’IA n’a aucune conscience. En faisant le choix de mentir, GPT-4 n’a éprouvé aucun plaisir à manipuler l’humain. Elle a juste fait preuve d’intelligence en prenant une décision très pertinente. Et on n’a encore rien vu… L’IA n’a que 10 ans. Ses développements vont être exponentiels.

Les IA générative ne font que produire une gloubiboulga statistiquement admissible du contenu qui leur sert de source d'apprentissage. Il suffit que quelques part, à la question est tu un humain il y ait une réponse je suis un humain, et que la déficience visuel est servi d'argumentaire à une demande d'aide, pour que l'IA ressorte le même propos ...

Techniquenement ce ne sont que des token - en gros chaque mot, qui "va le mieux" après le mot précédents qui sont choisi pour être envoyé à l'interlocuteur. Et ce qui décide du "va le mieux", c'est le prompt et l'apprentissage initial, qui sont eux même des séquences de mots.

Il n'y a pas a proprement parler d'abstraction derrière le langage, c'est purement mécanique, de manière mimétique, on imite ce que d'autres ont dit sans jamais en saisir le sens, d'ailleurs peu importe.

 

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, g4lly a dit :

Les IA générative ne font que produire une gloubiboulga statistiquement admissible du contenu qui leur sert de source d'apprentissage. Il suffit que quelques part, à la question est tu un humain il y ait une réponse je suis un humain, et que la déficience visuel est servi d'argumentaire à une demande d'aide, pour que l'IA ressorte le même propos ...

Techniquenement ce ne sont que des token - en gros chaque mot, qui "va le mieux" après le mot précédents qui sont choisi pour être envoyé à l'interlocuteur. Et ce qui décide du "va le mieux", c'est le prompt et l'apprentissage initial, qui sont eux même des séquences de mots.

Il n'y a pas a proprement parler d'abstraction derrière le langage, c'est purement mécanique, de manière mimétique, on imite ce que d'autres ont dit sans jamais en saisir le sens, d'ailleurs peu importe.

 

C'est bien cela qui est flippant. Si une IA avait accès à la totalité d'internet (n'est-ce pas le cas d'ailleurs ? C'est une vraie question), elle trouverait sans doute normal de voler, piller, violer et tuer sans état d'âme.

Faut-il alors contrôler les bases de données, ou plutôt implémenter les lois d'Asimov (ou les tablettes de la loi divine mdr) dans nos IA ? Enfin comment rendre ce contrôle obligatoire ? N'importe qui peut détourner un explosif civil pour faire le mal, dans le futur n'importe qui pourra détourner une IA pour faire le mal également. 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 5 heures, Fred974 a dit :

dans le futur n'importe qui pourra détourner une IA pour faire le mal également. 

C'est déjà le cas. Il faut juste laisser le temps au gens d'imaginer de nouveaux usages.

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

Il y a 5 heures, Fred974 a dit :

Si une IA avait accès à la totalité d'internet (n'est-ce pas le cas d'ailleurs ? C'est une vraie question),

A priori, elle a accés "beaucoup" et utilise même ce qu'elle ne serait pas tenue d'utiliser ( pas libre de droit, du peer review, de la presse, des oeuvres etc....) et ne cites pas les sources, évidemment. 

Il y a eu débat sur le sujet, déjà. Donc pour le vol et le pillage, c'est déjà "inscrit" dans un ADN par ses programmateurs.......

  • Merci (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, nemo a dit :

C'est déjà le cas. Il faut juste laisser le temps au gens d'imaginer de nouveaux usages.

On a déjà le cas des logiciels dopé a l'intelligence artificielle pour manipuler les molécules et trouver des médicaments potentiels... Qui trouve des quantités astronomique de poison en un clique.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, ksimodo a dit :

Il y a eu débat sur le sujet, déjà. Donc pour le vol et le pillage, c'est déjà "inscrit" dans un ADN par ses programmateurs.

C'est les joies de l'immatériel... Et de la faiblesse de la propriété intellectuelle dessus.

On peut supposer que certains ayant droit financeront une IA détectant les vol d'IP...

Lien vers le commentaire
Partager sur d’autres sites

Il y a 9 heures, Fred974 a dit :

C'est bien cela qui est flippant. Si une IA avait accès à la totalité d'internet (n'est-ce pas le cas d'ailleurs ? C'est une vraie question), elle trouverait sans doute normal de voler, piller, violer et tuer sans état d'âme.

Rien qu'en ayant accès à une bibliothèque de littérature ou de cinéma classique, fiction et historique, elle saurait que tel ou tel crime permet au criminel parfois d'arriver à ses fins.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 9 heures, Fred974 a dit :

Faut-il alors contrôler les bases de données, ou plutôt implémenter les lois d'Asimov (ou les tablettes de la loi divine mdr) dans nos IA ?

Pour cela, il faudrait qu'il y ait une vraie comprehension du contenu de ces lois et des questions/réponses en court, et il faudrait également être capable de comparer les deux.

Il y a 4 heures, ksimodo a dit :

Donc pour le vol et le pillage, c'est déjà "inscrit" dans un ADN par ses programmateurs.......

On ne fait pas grand chose de different lorsque l'on apprend en tant qu'humain. On s'appuie sur les travaux des prédécesseurs, on reproduit les oeuvres des illustres anciens, etc.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, aviapics a dit :

On ne fait pas grand chose de different lorsque l'on apprend en tant qu'humain. 

C'est sera peut-être ça l'IAG : un comportement humain capable également du pire (puisque basée en partie sur les IA conversationnelle d'aujourd'hui). Serait-on alors capable de coder une forme de conscience à même de distinguer le bien du mal ? Ça me rappelle furieusement Battlestar Galactica pour ceux qui connaissent !

Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, Fred974 a dit :

C'est sera peut-être ça l'IAG : un comportement humain capable également du pire (puisque basée en partie sur les IA conversationnelle d'aujourd'hui). Serait-on alors capable de coder une forme de conscience à même de distinguer le bien du mal ? Ça me rappelle furieusement Battlestar Galactica pour ceux qui connaissent !

Encore faudrait-il que les programmeur en soit capable. Vu que les êtres humains ont incapable de se mettre d'accord comment faire une telle programmation qui fasse consensus? Hormis quelque truc de base genre tu ne tueras point et encore.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 6 heures, aviapics a dit :

On ne fait pas grand chose de different lorsque l'on apprend en tant qu'humain. On s'appuie sur les travaux des prédécesseurs, on reproduit les oeuvres des illustres anciens, etc.

Oui et non. 

Le peer review n'est pas accessible gratos à tous. Et quand il est repris il est cité.

Pour les œuvres littéraires, c'est cité sinon c'est du plagiat. Les IA pompent, plagient en partie, mais ne citent jamais.

Ca fait une différence assez majeure selon mon point de vue, versus l'apprentissage. 

quand tu as apprends Pythagore au collège, c'est Pythagore ( même s'il ne doit pas rester bcp d'ayants droits ), c'est pas juste un truc pondu par le sachant Chat ou O3 ou autres.

 

Lien vers le commentaire
Partager sur d’autres sites

Le 06/01/2025 à 15:50, g4lly a dit :

On peut supposer que certains ayant droit financeront une IA détectant les vol d'IP...

Ça existe déjà sur Youtube et autres plateformes sous la forme d'algos

L'IA n'est vraiment qu'a un pas

Lien vers le commentaire
Partager sur d’autres sites

https://www.euronews.com/next/2024/11/14/google-removes-eu-based-news-content-from-search-feeds-as-part-of-time-limited-test (14 novembre 2024)

Google a lancé un « petit test limité dans le temps » dans huit pays afin de déterminer l'impact de la suppression des éditeurs de presse basés dans l'Union européenne dans les résultats de recherche d'un utilisateur.

Le « test AB » concerne la Belgique, la Croatie, le Danemark, la Grèce, l'Italie, les Pays-Bas, la Pologne et l'Espagne.

Selon Google, environ 1 % des utilisateurs de ces pays ne verront pas les éditeurs d'actualités basés dans l'Union européenne dans Google News, Search et Discover pendant une période dont la durée n'a pas été communiquée.

Les 99 % restants ne verront pas de changement dans leurs résultats de recherche concernant les éditeurs de presse.

Le test était également prévu pour la France, mais il a été bloqué par une décision de justice à la suite d'une demande du Syndicat des éditeurs de la presse magazine (SEPM).

Le syndicat a fait valoir qu'il était contraire à l'engagement pris par Google auprès de l'autorité française de la concurrence de ne pas avoir d'incidence sur l'indexation, le classement ou la présentation des contenus protégés.

« Nous sommes en train d'examiner l'ordonnance du tribunal et de suspendre le lancement du test en France pour le moment », a déclaré un porte-parole de Google à Euronews Next.

« Nous sommes très surpris par la position de SEPM, étant donné qu'ils ont demandé ces données économiques par écrit », a ajouté le porte-parole.

Donc si je comprends bien, l'idée est de regarder de combien diminuent les revenus publicitaires de Google lorsque l'accès à ces contenus est supprimé, de manière à calculer la "valeur" desdits contenus, et calculer le montant de la compensation dû aux éditeurs de presse dans le cadre de la loi européenne.

  • Triste 1
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • Statistiques des membres

    6 023
    Total des membres
    1 749
    Maximum en ligne
    gnawa
    Membre le plus récent
    gnawa
    Inscription
  • Statistiques des forums

    21,6k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...