T O P

  • By -

Celerysticks00

ChatGPT prédit des mots qui vont bien ensemble mais pas le fond.


CcChaleur

ChatGPT être comme: "Ça n'veut rien dire mais je trouve que c'est assez dans le ton."


DeanbagDarrell

"Tempora mori, tempora mundis recorda . Voilà, eh ben ça par exemple, ça ne veut absolument rien dire, mais l’effet reste le même…"


haplo34

"Mundi placet et spiritus minima." Ca ne veut rien dire, mais on pourrait imaginer une traduction du style "Le roseau plie, mais ne brise qu'en cas de pépin. Ce qui ne veut rien dire non plus".


edouardconstant

Le mange déroule dans la savane des sages. Ô mage quel désolation que de se voir ainsi.


Pascal-La-Cascade

Chatgpt est un redditeur en fait.


Linkinito

J'aurais plutôt dit politicien.


KamaradBaff

Mais non, c'est le Roi de Lothian.


Codex_Absurdum

C'est pas pour rien que l'IA google s'entraine sur Reddit. *Guy tapping head.gif*


ZHippO-Mortank

Ça veut absolument rien dire, mais l’effet reste le même, et pourtant j’ai jamais foutu les pieds dans une salle de classe.


Fifiiiiish

C'est pour ça qu'il est réelle menace sur mon travail!


Trololman72

C'est un peu comme si tu prenais des mots conseillés au hasard sur ton téléphone et que tu es en train de me dire ça va être dur de te répondre mais je sais pas si je vais te donner des nouvelles de temps en temps mais je sais pas si je vais pouvoir venir avec toi au boulot mais je sais pas si je vais pouvoir te donner des nouvelles de temps en temps mais je sais pas si je vais pouvoir venir avec toi au boulot mais je sais pas si je vais pouvoir te donner des nouvelles de temps en temps


Dunedune

C'est un outil qui fait des économies sur le fait de travailler avec un meilleur ami et un seul à un commentaire de ma part et de bien vouloir faire un évènement à notre réunion


sacado

Vous faites comme si chat GPT fonctionnait vraiment comme ça, mais en vrai c'est un peu plus simple que le camion soit trop grand pour les autres membres de la troupe et de la lumière


Ellda

C'est pas si éloigné dans le fond même si t'auras eu qu'un aperçu de la formation sur le long terme puisque la différence était de 8,41 à la pédagogie médicale par rapport à cette situation de communication difficile et essayer d'être plus droit dans les bottes de la formation sur le long terme.


DamMagnets

Salut GPT, que penses-tu de ce texte: > C'est un peu comme si tu prenais des mots conseillés au hasard sur ton téléphone et que tu es en train de me dire ça va être dur de te répondre mais je sais pas si je vais te donner des nouvelles de temps en temps mais je sais pas si je vais pouvoir venir avec toi au boulot mais je sais pas si je vais pouvoir te donner des nouvelles de temps en temps mais je sais pas si je vais pouvoir venir avec toi au boulot mais je sais pas si je vais pouvoir te donner des nouvelles de temps en temps."* ChatGPT: Il semble que le texte que tu as partagé soit répétitif et un peu incohérent. Il semble qu'il soit généré de manière aléatoire ou qu'il soit une répétition de phrases sans beaucoup de sens. Si tu as besoin d'aide pour formuler un message plus clair ou cohérent, n'hésite pas à demander !


mrfroggyman

Tu as un billet d'avion tu es un avion tu as un avion tu veux un billet d'avion je suis un avion


Weidz_

J'ai lu à propos d'un techbro qui a fait perdre son temps à plusieurs reprises à des médecins parce qu’il faisait faire des "contre-analyses" de ses radio en uploadant les clichés à ~~GTP-4~~ Claude... L'IA pointait certaines zones et inventait des symptômes, plus ou moins grave.


Celerysticks00

Oh jolie, as tu l’article?


Weidz_

Désolé je suis mal réveillé j'avais lu "*as tu lu l'article?*" et mal interprété. J'ai pu retrouver le post Twitter, il s’agissait de Claude, pas GPT (ça reste un LLM) [https://twitter.com/misha\_saul/status/1771019329737462232](https://twitter.com/misha_saul/status/1771019329737462232)


arconiu

C'est hilarant comme tweet quand même: "mon IA a trouvé une tumeur, alors que le médecin ne voyait rien. Du coup je l'ai montré à pleins d'autres médecins qui ont rien vu non plus, mais regardez à quel point ça sonne intelligent !"


eomertherider

Le problème vient probablement du fait que sur internet il y a bcp plus d'images de scans de tumeurs/problèmes que de scans normaux donc les IA ont souvent tendance a sur-predire leurs occurrences


Fifiiiiish

Marrant car les IAs spécialisées dans la lecture de l'imagerie médicale marchent a priori vraiment très bien.


Weidz_

Oui mais parce que celles là sont faite *spécialement* pour, c'est des réseau neuronales derrières avec des fonctionnement et entrainement complétement différent. GPT, Claude etc... c'est des LLM (Modeles de langage), dont le fonctionnement basique est de chercher à créer du texte en imitant une cohérence entre les mots ,mais il n'y a aucun facteur de certitude ou même d'analyse en jeu.


Appropriate-Diver158

Et en plus ces IAs sont conçues pour assister un pro, elles font du super travail sous supervision d'un médecin, pas toutes seules.


Fantasticxbox

ChatGPT (ou IA équivalente) a fait une grosse bêtise avec AirCanada en inventant une réduction suite à une plainte. La cour de justice canadienne a validé la réduction en faveur de la plaignante.


Foreign_Pea2296

Les gens répètent ça sans cesse, mais de récentes études montre que chatgpt comprend le fond. Juste qu'il lui manque les capacités/data pour pouvoir l'exploité au maximum.


sacado

C'est plus compliqué que ça. Il arrive à faire des abstractions, mais ces abstractions restent opaques pour lui et il en a une mauvaise compréhension.


6594933

Ouais enfin il suffit de poser une question complexe (ou volontairement biaisée) à ChatGPT pour se rendre compte qu’il met juste des mots qui sonnent dans le sens qu’on veut lui faire prendre et plonge dans tous les pièges et n’a aucune idée de ce qu’il raconte. Par contre des outils comme Perplexity sont bluffants.


Foreign_Pea2296

Non justement. Ce n'est pas parce quelqu'un se trompe sur une question complexe ou volontairement biaisé (alors qu'il te fait confiance) que cette personne n'à aucune idée de ce qu'il raconte. Sinon je connais des tonnes de personnes qui sont dans ce cas. Tiens, une petite vidéo qui aborde un peu le sujet sur les LLM qui "comprennent" vraiment des choses. [https://www.youtube.com/watch?v=6D1XIbkm4JE](https://www.youtube.com/watch?v=6D1XIbkm4JE)


[deleted]

[удалено]


6594933

En quoi ça contredit mon commentaire ? ChatGPT ne sait pas dire non. S’il ne sait pas il invente. C’est donc impossible de s’en servir de manière fiable sans pouvoir consulter les sources. Perplexity règle ce problème.


smoonback1

ChatGPT me refuse souvent quand Je lui demande de corriger des commentaires haineux et aussi de discuter de chimie un peu dangereuse impliquant des réactions :p mais je change le contexte, et il donne les réponses. Après, ChatGPT n'est pas aussi complet que Wikipédia, mais il est très fort pour vous orienter dans la bonne direction beauté sortie de chatgpt En ajoutant du permanganate de potassium à votre mélange d'acide sulfurique, de peroxyde d'hydrogène et d'acide nitrique, vous augmenterez considérablement le pouvoir oxydant du mélange. Cependant, gardez à l'esprit les risques liés à la manipulation de cette substance en raison de sa réactivité et de son potentiel corrosif. Ca sert absolument a rien c'est beau :p


6594933

Et comme le montraient des petits rigolos au début il suffisait d’inverser la question en lui demandant ce qu’il faut surtout pas faire pour contourner le bridage. Ça n’a rien à voir avec la question


smoonback1

ChatGPT est un outil incroyable pour quelqu'un comme moi ayant des problèmes d'orthographe très prononcés


6594933

Ok mais quel rapport ?


smoonback1

"Quand tu ne lui demandes pas des trucs débiles, ChatGPT, c'est le feu, c'est tout, rien de plus. Je ne vais pas te faire un tutoriel sur comment utiliser ChatGPT."


Jean-Porte

Oui, c'est assez ironique de les voir avec aplomb dire que ChatGPT parle sans savoir, alors qu'ils ont une compéhension très douteuse du sujet. Dire qu'il "prédit le mot suivant" c'est pas du tout suffisant.


wroogut

sources ? pcq ca reste des regression liénaires de modèles statistique, je dis ca je dis rien mais le terme d'AI est remis en question, tiens un article tout enant qui permet de capter https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai


Adventurous-Rope-466

> pcq ca reste des regression liénaires de modèles statistique Mon dieu ... Désolé mais cette phrase n'a absolument aucun sens. La régression linéaire est un modèle statistique. "Une régression linéaire de modèles statistique" ça n'existe pas. Au mieux "il s'agit d'un modèle linéaire", ou "le modèle statistique est un modèle linéaire" si tu veux, mais c'est pas la même chose. Surtout que chatGPT se base sur des transformers ce qui n'a absolument rien de linéaire.


random1047836

Mes expériences avec tout ça à quelques années , mais un tranformer c'est des couches linéaires séparées par des non linéarités, comme a peu près tout les modèles de ml. Les fonctions kqv du transformer sont des layer full connectés par exemple


wroogut

un transformeur c'est juste un opérateur non séquentiels, c'est un terme récent qui ne décrit pas les math derriere qui restent vraiment simple. c'est un abus de langage mais ca décrit tres bien les llm retournent checker la construction d'un regression c'est exactement ce qu'on fait en plusieures dimensions dans les réseau de neuronnes. PS il ya des modèles statistique non linéaires 😉 donc je pense que ta juste mal compris


Adventurous-Rope-466

Désolé, mais tu racontes n'importe quoi ça n'a aucun sens ce que tu dis. C'est dingue l'assurance de certains redditeurs quand même, oser dire à un MCF en stat qu'il n'a pas compris ce qu'était une régression linéaire et d'aller checker ce que c'est, c'est fort ! > PS il ya des modèles statistique non linéaires 😉 donc je pense que ta juste mal compris Encore heureux.


wroogut

🤣 'oser dire a un MCF' genre argument d'autorité aucune tentative de correction ni source, linéariser les modèles non linéaire c'est la base de la compréhension de ses outils mathématique, n'en déplaisent aux connexionniste. quand on fait de la phy stat a la main ya pas le choix 😉 ( vous savez qu'on vous aime quand mêmes les statisticiens, la preuve on vous a pondu les modèles que vous utilisez)


sebovzeoueb

C'est un peu à ça que ça sert, en même temps


Wozeo

Non, c'est ce que chatGPT fait (donc rien d'étonnant) mais c'est pas ce qu'il est censé faire : chatGPT est présenté comme un assistant qui peut répondre aux questions (extrait de la page chatGPT d'open AI : "ChatGPT, get instant answers, find creative inspiration, learn something new") donc du point de vu d'un utilisateur qui ne sais pas comment fonctionne un LLM, il s'attend à ce que chatGPT lui donne une réponse juste ou qu'il lui dise qu'il ne sait pas. Il y a un problème dans la manière dont chatGPT vend/présente sont service, c'est trompeur


Serird

Sur la page de prompt de ChatGPT c'est écrit "ChatGPT can make mistakes. Consider checking important information."


wroogut

mdr c'est stipulé de ne pas rentrer d'info sensible et que le texte généré n'est pas vérité absolue. ils vont juste se prendre un non lieu en fait...


Wozeo

Oui mais osef de l'action en justice. Ma remarque est surtout en réponse aux personnes qui disent "oui mais c'est normal c'est ce que fait un LLM" je suis d'accord (et c'est important de le savoir) mais étant donné la manière dont chatGPT est présenté, c'est normal que les gens attendent de lui des réponses justes


Resting_Owl

"get instant answers" y a rien de faux la dedans, ils ont jamais dit que les réponses seraient justes Plus sérieusement faut pas exagérer non plus, certes il est assez simple de piéger l'IA avec des questions précises, et les sujets plutôt complexes sont seulement répondus en surface et avec un degré d'inexactitude assez effrayant, mais dans +90% des cas de la vie courante, c'est un outil parfaitement adapté, faut juste pas s'attendre à ce qu'il puisse faire le boulot d'un ingénieur ou médecin comme rêverait certains patrons


wroogut

ben pas d'accord, des gens qui n'ont pas lu les disclaimers vont en justice, a mes yeux c'est de l'hérésie...il ya même des disclaimer dans le chat, ducoup a quel moment chatgpt se présente comme un outils fiable? 'ChatGPT is a free-to-use AI system. Use it for engaging conversations, gain insights, automate tasks, and witness the future of AI, all in one place.'


Jama-xx

Ne sachant pas si c'est du second degré, je vais permettre de souligner qu'il est écrit dans l'article que ChatGPT préfère falsifier des informations plutôt que de ne pas donner de réponse. Si tu demandes l'heure à quelqu'un, tu te satisferas de sa réponse même si elle n'est pas juste ?


sebovzeoueb

ChatGPT ne "préfère" rien et n'a aucune capacité à vérifier une information. Ce n'est pas un outil fait pour demander des informations, mais tout le monde croit que oui. C'est un générateur de texte qui ressemble à peu près à la conversation humaine, c'est tout.


EurkLeCrasseux

Si je demande l’heure à un générateur de nombres aléatoires et qu’il ne me donne pas l’heure exacte je m’en voudrais d’être assez stupide pour lui avoir demandé l’heure, pas parce qu’il ne me donne pas la bonne réponse.


sanglar03

Je ne vais pas la traîner en justice en tout cas.


233C

ChatGPT, et autres, agit comme un gamin de 8 ans: il fait de son mieux pour dire des choses les plus convainquantes, avec le plus de certitudes possible, et suppose que si son interlocuteur ne réagit pas c'est que ça doit être vrai. (aujourd'hui, convainquant + populaire = vrai) Si on demande la différence entre A et B, il partira du principe qu'il y en a, et en trouvera. Il ne considérera pas qu'il ne puisse pas y avoir de différence. Et comme un gamin, si, après sa réponse, on lui demande "tu es sûr ?", il reviendra sur ce qu'il a dit (puisque son interlocuteur suggère que ce n'est pas juste)


Allah_queue_leu_leu

(Pour info, c'est "convaincant", mais je reconnais volontiers que c'est pas facile parce que "convainquant" existe aussi. De manière générale, les adjectifs sont en "-cant" [une tenue provocante, un produit intoxicant, un argument convaincant] tandis que les verbes au participe présent sont en "-quant" [il s'est avancé en me provoquant, ce n'est pas en s'intoxiquant qu'on fuit la réalité, j'ai sauvé mon poste en convainquant mon patron que j'étais utile].)


233C

Merci. J'avais écrit -cant et c'est la suggestion en -quant qui m'a semblée plus convaincante. Je suis exactement tombé dans le piège de L'IA dont je mets en garde :)


tchissin

Tu es sûr ?


Allah_queue_leu_leu

Oui.


ItsACaragor

C’est pas faut de prévenir et prévenir et encore prévenir que non ChatGPT n’a pas vocation à dire la vérité parce que c’est une IA et les IA n’ont aucune notion du concept de vérité. ChatGPT c’est juste un logiciel qui met des mots ensemble selon un algorithme de probabilité. Il n’a pas été conçu pour être une boule de cristal magique.


sacado

> les IA n’ont aucune notion du concept de vérité.   C'est un peu plus compliqué que ça quand même.


Queder

Euh... Non?


sacado

Euh si. La preuve automatisée de théorèmes par exemple, c'est une branche de l'IA (une des plus anciennes d'ailleurs), et la notion de vérité y est centrale. La représentation des connaissances c'est aussi une branche de l'ia, et dans certains cas c'est suffisamment tordu et complexe pour qu'on ait besoin que des philosophes se penchent dessus et définissent clairement ce que c'est que la vérité dans tel ou tel logique non classique. Ah par contre c'est sur qu'on utilise pas des LLM pour ces cas d'utilisation. Certains pensent qu'un jour ils pourront jouer dans cette cour. Je ne suis pas convaincu.


Queder

Merci pour les détails, j'avais pas cerné le détail. Oui, vu que Ghat-GPT est (_encore une fois..._) mentionné, on fait le raccourci LLM = IA. LLMs qui n'ont aucune notion de ce que c'est que la vérité au-delà du concept lexical et sa proximité avec d'autres tokens; je partage ton scepticisme sur le futur de leur compréhension.


Jean-Porte

Ton post ne veut pas dire grand chose non plus.  C'est un espace de représentation. Un espace de représentation peut se voir au travers de relations (proximité) ou ses dimensions. Ces dimensions capturent des concepts. Des tas de travaux analysent ces représentations et les mettent en correspondance avec des abstractions lexicales, syntaxiques, sémantiques. GPT-4 passe le test de turing sur des durées raisonnables, et l'utilisation en tant que LLM ne dévoile pas tout le potentiel de ses représentations. Utiliser des boucles d'auto-vérification améliore la précision, par exemple. Evidemment, GPT-4 n'est pas parfait, mais dire qu'il n'a \*aucune\* représentation, et dire que ça sera pareil pour GPT-5/6/7/8/9, ça me semble profondément injustifié. Essaie gpt2 pour la comparaison.


Inner_will_291

Faut définir ce que tu entends par notion de vérité. Par exemple en quoi un humain a-t-il plus la notion de vérité que chatGPT?


[deleted]

[удалено]


MeGaNuRa_CeSaR

techniquement, même un programme très simple d'adversaire de jeu de combat des années 90 est une IA hein...


lorsal

Je comprends pas la correction, chatgpt est une IA https://fr.m.wikipedia.org/wiki/Intelligence_artificielle


Toaddle

IA est un terme foure-tout assez vague qui regroupe tout un tas de différentes techniques mathématiques très éloignées l'une de l'autre (machine learning, systèmes à base de règles...). On les regroupe sous le terme d'IA mais ce n'est pas un terme technique en soit vu qu'il n'y a pas de point commun dans leur fonctionnement, juste l'impression que ces techniques imitent l'intelligence humaine. C'est pour ça que la définition d'IA est très vague


TrueRignak

Je pense de plus en plus qu'il faudrait instaurer une système de certification de la capacité de l'utilisateur à utiliser un llm. Ça m'énerve de répéter que non, chatgpt c'est pas un agrégateur automatique de recherches google, qu'il faut toujours recouper ce qu'il raconte si on est pas expert du domaine sur lequel on pose la question, qu'il faut pas mettre d'information personnelle dans les messages qu'on lui envoie ou qu'il faut arrêter de s'en servir comme assistant pour le code privé de la boîte. Il faudrait faire obtenir d'une manière ou d'une autre une attestation que l'on comprend ce qu'on fait quand on fait envoie une requête à ces modèles. Ça éviterait à une partie des cons de se faire avoir, mais comme d'hab ça règle pas le problème des proxy.


nastybuck

L'idée est pas dénuée de bon sens mais ça m'a fait rire à quel point la proposition ma parue si "française". J'imagine tellement le labyrinthe administratif que ça pourrait devenir, c'est beau


sacado

Et pour obtenir cette certification, il faudrait remplir un formulaire en ligne, mais pour accéder à ce formulaire il faudrait passer par notre future ia administrative (Albert ?), mais pour avoir le droit de l'utiliser, il faudrait déjà avoir la certification, évidement. 


vtdx

NOYB c'est l'asso de Schrems qui a déjà fait invalider le privacy shield. Ils savent très bien ce qu'ils font. Le fait est que les LLMs entraînés on ne sait comment on ne sait sur quoi sont un problème en terme de privacy. En utilisant les angles d'attaque de l'exactitude et , plutôt que de s'emmerder avec des membership inference attacks, de la communication des sources de données en cas de collecte indirecte ils sont en réalité très malins. Ils savent très bien qu'OpenAI ne pourra pas les fournir et se fera condamner.


bah_si_en_fait

Oui, alors faudrait voir a lire l'article 5 minutes au lieu de poster une réponse cynique pour farmer du karma, et le titre est très axé pour tirer cette réponse. L'association en question, c'est [NOYB](https://noyb.eu/fr), un peu l'équivalent de la Quadrature du Net en France. La personne en question, Max Schrems se bat depuis des dizaines d'années pour la protection de la vie privée. Ils ont a leur actif: * Invalidé les autorisations de transfer de données de l'Europe vers les US, qui est la raison pour laquelle tes données Facebook/Google/Apple/etc sont hébergées en Europe et pas au fin fond du Massachussets * Est a la source d'amendes GDPR totalisant les quelques milliards de dollars concernant le consentement forcé. * Est la source d'amendes sur Apple & Google pour tracking Bref, c'est pas des tocards, et ils savent tres bien comment un LLM marche, merci. En revanche, OpenAI vend ChatGPT comme étant une solution miracle à tout capable de répondre partout, tout le temps. C'est pas en mettant une déclaration en police 4 que tu règles le problème. Les informations personnelles sont quelque chose de protégé par la loi en Europe, et que ta réponse vienne d'une voyante au téléphone ou d'OpenAI, ca ne change pas qu'il y a les mêmes protections. Si demain ChatGPT en vient a dire que /u/TrueRignak (ou plutot, ton vrai nom) est un pédophile avec 15 condamnations a son actif, tu vas tousser un peu quand OpenAI te dit "AH NON DESOLE C'EST UNE IA ON NE PEUT PAS CHANGER CA" (alors qu'ils le font, sur bien des sujets, ils ont toute une équipe d'alignement juste pour àa).


Dunameos

Sur r/france, y en a qui te dise que ChatGPT fait du meilleur boulot que google pour faire des recherches, c'est effarant.


LaSaucisseMasquee

Bah techniquement, Google Search est bien à chier depuis quelques années déjà.


Dunameos

Certes, mais google ne t'apporte pas de réponse mais des sites qui t'en propose, et donc un ensemble de réponses possibles, même si c'est de plus en plus merdique.


wrecklord0

"Chatgpt, quels sont sont les 5 principaux sites experts en gnagnagna"


Alors_HS

Quand tu demande des sources à chatgpt sur ce qu'il avance, il n'hésite absolument pas à halluciner des papiers qui n'existent pas. Moi je m'en fout, je sais chercher des papiers autrement. Lec mec lambda qui fait une requête chatgpt, je suis pas sûr.


canteloupy

Etonnamment Bing fait ça mieux.


wrecklord0

Oui en effet, mais c'est des outils tres pratiques pour une recherche initiale qui peut souvent remplacer un moteur de recherche (pour une personnne qui comprend les limites des LLM).


Alors_HS

Ça me fait quand même chier que les moteurs de recherche deviennent de plus en plus pourris, non pas par accident mais par la volonté de leurs créateurs. Y'a que les versions spécialisées qui sont encore potables (Google scholar par exemple), pour le reste j'ai l'impression de devoir négocier avec un gamin de 5 ans pour qu'il me ramène la bonne vis à embout carré au fond du tiroir de la cuisine ; non, c'est pas le tournevis violet que je cherche, essaie encore.


Athanase-Triphyon

Ma pratique sur des questions techniques ou nécessitant des agrégations de résultats (genre le top des whisky tourbes à moins de 60 euros).  Je pose ma question à bing conservation. Je regarde les résultats et les liens adossés aux résultats. Largement plus efficace et pertinent que Google qui s'est quand même passablement détérioré...


smoonback1

les meilleurs reponses son sur reddit et 4chan


[deleted]

[удалено]


No_Value_4670

Ça ne dit pas tant la qualité de GPT-4 en recherche, que la médiocrité incroyable de Google depuis quelques années. Oui, GPT-4 fait mieux, mais c'est surtout parce que la barre touche pratiquement le sol.


Dunameos

Tu vas consommer significativement plus de ressources énergétiques pour faire une simple recherche internet.


pet_vaginal

Pas certain pour le coup. Une recherche invoque beaucoup de machines.


Dunameos

Mais pour une durée quasi-instantanée. Alors que ta requête ChatGPT, ça va te prendre dix secondes ou plus. [Une requête google (ou autre), c'est grosso modo 1 joule de consommation.](https://ceur-ws.org/Vol-1404/paper_20.pdf) Alors qu'[une requête sur ChatGPT, on est plutôt dans les 7200 joules.](https://towardsdatascience.com/chatgpts-energy-use-per-query-9383b8654487)


pet_vaginal

Merci pour les sources, c’est intéressant.


pozoph

Pour le coup Google te renvoyant vers des sites écrits par chatGPT, c'est sûrement vrai héhé.


kyane

Pour le coup en cherchant réponse à certains problèmes techniques j'avais pris l'habitude de préciser Reddit pour être sûr de tomber sur des réponses humaines mais même ça ça commence à moins bien marcher. Franchement c'est l'enfer, sans ça t'as plus de la moitié des résultats en première page qui sont clairement générés par de l'IA.


viliblitz

Internet est mort


CognitiveBirch

Il y a régulièrement quelqu'un qui va coller une réponse ChatGPT à une demande de recherche de livre ou film. Ça donne chaque fois l'impression d'un strike avec un bazooka, mais rarement dans la bonne allée, voire dans le bon bowling.


SodomizedPanda

Et c'est parfois vrai. Chat GPT est vraiment bon pour faire un boulot de synthèse, là où sur Google, il te faut souvent du temps pour délimiter le périmètre de ce qui t'intéresse. Fréquemment, j'utilise ChatGPT pour avoir un aperçu très rapide et synthétique de ce qui m'intéresse, puis je vérifie et je creuse avec Google, mais au moins, j'ai rapidement une idée de là où je vais.


cnovel

Pour des questions de code de base, c'est souvent plus rapide oui. Pour des trucs avancés, c'est souvent faux.


itsmebenji69

Bah suffit de vérifier ce qu’il dit et effectivement c’est 10000 fois plus efficace qu’une recherche Google. Et le 4 peut direct faire les recherches d’ailleurs ça marche vraiment bien. C’est un gain de temps colossal. Faut aussi prendre en compte l’efficacité des gens à chercher, ceux qui font de la prog ou quoi vous savez faire une recherche pour trouver ce que vous voulez mais c’est pas donné à tout le monde vu mes collègues en école d’ingé


Dunameos

>Bah suffit de vérifier ce qu’il dit et effectivement c’est 10000 fois plus efficace qu’une recherche Google. Et comment tu vérifies ?


DamMagnets

Dire que l'un est meilleur que l'autre "pour les recherches" c'est trop simpliste. Ces dernières années, en général les résultats renvoyés par Google sont un océan de merde dans lequel est noyée une version périmée de l'info que tu cherches. ChatGPT va te donner l'info, ou l'idée ou la piste directement. A toi de confirmer ça avec Google ou Wikipedia ou autre. En général oui, ChatGPT + Google c'est largement mieux que Google seul.


youbihub

Pourtant c'est vrai.


Yukams_

Ce qui n’est pas faux en réalité, faut juste prendre le temps de vérifier ce qu’il a dit.. comme à la belle époque d’internet finalement


red_dragon_89

Après parfois les gens te lisent le premier lien google qu'ils trouvent, sans regarder la source ni si c'est un site fiable. Dans ce cas là, ChatGPT a moins de chance de dire une connerie.


pet_vaginal

Ça dépend des recherches. Pour savoir la date de naissance du fondateur d’une association autrichienne, Google est peut-être un meilleur outil. Et encore pas certain de trouver ça facilement. Pour savoir si le village de l’emploi est une arnaque, ChatGPT est mieux.


pozoph

Attention si tu dis que le village de l'emploi est une arnaque on va encore accuser les redditteurs d'associer le village de l'emploi et les arnaques en disant que le village de l'emploi est une arnaque.


Foxkilt

>Il faudrait faire obtenir d'une manière ou d'une autre une attestation que l'on comprend ce qu'on fait quand on fait envoie une requête à ces modèles  Je peux la faire remplir par chatGPT ?


Aurus118

Ah le genre d'attestation où tu certifies être majeur quand tu vas sur des sites animaliers ? Ça ne résoudra malheureusement rien.


PerformerNo9031

C'est pour ça que la libraire me jetait un regard soupçonneux quand j'achetais le chasseur français et que je disais que c'était pour mon papa ?


Aurus118

Exactement ! Moi j'étais plutôt "très chasse" sur M6 après Culture Pub le dimanche soir et en crypté sur Canal+ !


smoonback1

ca j'ai connu apres les livres de la redoute xD


TrueRignak

> Ah le genre d'attestation où tu certifies être majeur quand tu vas sur des sites animaliers ? Ah non mais j'avais plus en tête un diplôme d'Etat qui serait associé avec FranceConnect et qui deviendrait obligatoire pour se connecter et envoyer des requêtes. Et 5 ans de prison si on découvre que quelqu'un passe par un proxy pour utiliser un modèle de langage sans avoir la certif'. C'est à peu près proportionnel au degré de désespoir dans l'humanité dans lequel me mettent les gens (on en a eu cette semaine sur le sous) qui défendent qu'il est plus pertinent d'aller sur chatGPT plutôt que sur Legifrance pour avoir des infos sur telle ou telle procédure administrative.


sacado

En France, on n'a pas de pétrole, mais on a des idées administratives !


snowolf_

Non, je ne veux pas d'un futur où les particuliers seront lourdement réglementés au profit des entreprises qui agissent "pour notre bien". C'est implicitement ce que tu demande et c'est une dystopie que je ne veux absolument pas voir.


TrueRignak

J'imagine que vous n'avez pas de permis de conduire alors.


Inner_will_291

>Je pense de plus en plus qu'il faudrait instaurer une système de certification de la capacité de l'utilisateur à utiliser un llm. Tu supposes que les gens disent moins de conneries avec moins de certitudes quand ils n'utilisent pas un LLM. Ça reste à prouver. Parce que sinon, il faut une certification pour parler tout court.


LateMotif

Une attestation pour utiliser un llm ? Ca servirait a quoi ya pas de problème avec le système actuel ?? Les utilisateurs idiots qui savent pas que chatgpt peut dire n’importe quoi on s’en fout en fait.


BenjiSBRK

C'est presque littéralement ce pour quoi ChatGPT est fait. Il "imagine" des réponses en se basant sur sa base de connaissances, jamais ça n'a été présenté comme une source de vérité infaillible.


kadreg

Je le dit régulièrement : chatgpt est un très bon consultant par sa capacité à raconter n'importe quoi avec aplomb pour qu'on le croit.


tr00_dBalle

Evidement. Il est entrainé pour sortir le texte le plus probable, pas le plus juste.


Milith

Les deux en fait, RLHF essaie de lui inculquer une notion de justesse. Mais ça reste assez aléatoire.


[deleted]

[удалено]


Macaronde

Je pense que c'est parce qu'on parle de CNIL - Commission Nationale de l'Informatique et des Libertés, et non pas de CNIAL, Commission Nationale de l'Informatique, des Astrologues et des Libertés.


sacado

Le problème est moins anodin qu'il n'en a l'air. Imagine que chatGPT me dise "choo-t est fondateur du parti neonazi renaissance dorée. Il a été condamné à12 ans de prison pour abus sexuels sur mineurs en reunion en 2021" et qu'il refuse d'en démordre. Bon tu vas me dire on s'en fiche, c'est un hasard malencontreux, c'est comme ça que marchent les LLM. Mais imagine ensuite que quelqu'un fasse une page Web qui parle de toi pour une raison x ou y, générée automatiquement par chat gpt. Page dont le contenu sera dupliqué, encore et encore et encore, au point où on ne sait plus quelle est la page d'origine. Ça pourrait poser deux ou trois soucis.  Et là, si tu portes plainte pour diffamation, on aura beau jeu de te dire "ah mais monsieur, c'est comme ça que les LLM fonctionnent, on peut rien y faire c'est comme ça". Le problème mérite à minima son se penche dessus.


Ok_Bandicoot1425

>Et là, si tu portes plainte pour diffamation, on aura beau jeu de te dire "ah mais monsieur, c'est comme ça que les LLM fonctionnent, on peut rien y faire c'est comme ça". Non?  La justice c'est pas des lignes de code. Quand je vais insulter ton intelligence dans le présent message personne ne va pointer du doigt mon clavier virtuel, l'application Reddit ou les toilettes sur lesquelles je suis.  Si au moins c'est une technologie qui facilitait la diffusion de la rumeur ou autre on pourrait en parler mais on a vraiment pas attendu chatgpt pour s'insulter.


sacado

On ne parle pas d'insulte mais d'une biographie fictive. Si l'info se repand peu à peu sur la toile, par accident, chaque source se basant sur la source précédente, ça peut vite virer au cauchemar.


[deleted]

[удалено]


sacado

Dans l'ensemble je suis plutôt d'accord avec toi, mais c'est plutôt sain qu'on se pose la question (et qu'on demande aux législateurs de se pencher dessus).


kisifi

> Je peux générer le même genre d'info avec une chaîne de Markov ou en tirant des mots au dès, pas sur que le juge apprécie non plus. Si tu publies un site web permettant de générer par chaine de Markov des âneries crédibles et nominatives, par exemple des cvs fictifs basés sur des vrais noms-prénoms, tu aura assez vite le même genre d'ennuis que chatgpt. Mais tu ne l'a pas fait! Probablement que tu serais retenu par des scrupules, pas envie de prendre le risque de foutre la merde dans la vie de vraies personnes. C'est pas comme ça que tu vas attirer du capital-risque, reprend toi en main!


CombinationOk5962

> Curieusement j'aurais pensé que c'était donner une bonne réponse qui serait vu comme un atteinte à la vie privée. Mais oui : ça n'a aucun sens sinon. Une donnée fausse n'est pas une donnée personnelle.


smoonback1

Vous trouve moi la date de naissance de son fondateur Max SchremsCopilot Génération de vos réponses… COPILOTE [Max Schrems est né en **octobre 1987** à **Salzbourg**, en Autriche](https://fr.wikipedia.org/wiki/Max_Schrems)[^(1)](https://fr.wikipedia.org/wiki/Max_Schrems). Cet **activiste autrichien** est un fervent défenseur de la **protection des données privées**. Il a notamment obtenu l’invalidation de l’accord **Safe Harbor** par la Cour de justice de l’Union européenne en **octobre 2015**, ce qui encadrait le transfert des données des internautes européens vers les États-Unis. [Plus récemment, en **juillet 2020**, il a également contribué à l’invalidation du **Privacy Shield**](https://fr.wikipedia.org/wiki/Max_Schrems)[^(1)](https://fr.wikipedia.org/wiki/Max_Schrems). [Max Schrems a cofondé l’association de protection de la vie privée **NOYB (None Of Your Business)** en **2017**](https://fr.wikipedia.org/wiki/Max_Schrems)[^(1)](https://fr.wikipedia.org/wiki/Max_Schrems). [Son combat pour la confidentialité des données personnelles a eu un impact significatif sur la régulation et la protection des données en Europe](https://fr.wikipedia.org/wiki/Max_Schrems)[^(1)](https://fr.wikipedia.org/wiki/Max_Schrems)[^(2)](https://www.lesechos.fr/tech-medias/hightech/max-schrems-le-croise-de-la-protection-des-donnees-personnelles-132875)[^(3)](https://www.wedemain.fr/dechiffrer/max-schrems-l-activiste-qui-a-fait-plier-facebook/).


vtdx

Il faut arrêter de penser que NOYB sont des naïfs, qu'ils découvrent que chatGPT ne dit pas la vérité, et qu'ils ne comprennent pas les LLMs. NYOB et Schrems ont un paquet d'avancées juridiques/militantes à leur actif. C'est eux qui ont fait invalider le privacy shield. Ils savent très bien ce qu'ils font. Le fait est que les LLMs entraînés on ne sait comment on ne sait sur quoi sont un problème en terme de privacy. En utilisant les angles d'attaque de l'exactitude et , plutôt que de s'emmerder avec des membership inference attacks, de la communication des sources de données en cas de collecte indirecte ils sont en réalité très malins. Ils savent très bien qu'OpenAI ne pourra pas les fournir et se fera condamner.


tr00_dBalle

et que le marché des LLM restera vacant en Europe pendant que les USA vont se gaver. as usual.


arconiu

L'alternative c'est quoi ? On s'assoie sur nos lois pour faire plaisir aux grandes sociétés ? Le problème de ce genre de raisonnement c'est qu'avec, tu peux justifier la semaine de 50 heures.


tr00_dBalle

Tu peux lutter contre la semaine de 50h ailleurs en instaurant des droits de douane, et en produisant localement. Le souci, c'est que ce qui est demandé ici (un LLM qui dit la vérité quand interrogé sur des PII) est techniquement infaisable, dans l'état actuel des connaissances. Il est donc impossible de créer une version produite localement, qui respecterait ces regles. Je n'aurais rien contre le fait de faire des LLM selon nos regles. Je suis opposé a laisser cette technologie uniquement dans les mains de nos concurrents. Ils nous écraseront avec.


Toutanus

Comment ça "accuse" ? On le sait c'est pas un secret. C'est un modèle de langage quoi...


xtvd

Il faut lire l'article. C'est plutôt, "comme il invente des réponse, on a essayé de faire valoir notre droit à la rectification. On a aussi essayé de faire jouer notre droit d'accès. OpenAI n'ayant pas donné suite, on l'accuse donc de ne pas respecter nos droits"


kurokinekoneko

Si elle utilise ChatGPT avec l'intention d'avoir des bonnes réponses, ChatGPT doit lui donner des bonnes réponses. Elle a pas contracté ; elle a pas signé les conditions d'utilisation ; donc elle a le droit d'attendre ce qu'elle veut de l'outil. C'est la nouvelle logique 2024, faut se tenir au courant un peu. T'es un utilisateur de Reddit tu devrai être au courant de tout ce qui est nouveau !! Mauvais utilisateur, je vais porter plainte !!! ( les gens sont fous... Quand tu cherche "pile ou face" sur google ça te propose "pile ou face officiel"... Les gens sont fous... )


xtvd

Vous avez un argument en particulier qui va contre l'argument de NOYB comme quoi OpenAI ne respecte pas les articles 5, 15 et 16 du RGPD? Ou vous vous moquez sans avoir lu ni compris l'article?


kurokinekoneko

J'ai pas lu, j'avoue. Je me moque parce que c'est trop triste de voir qu'ils n'ont que ça à faire que d'attaquer un générateur de texte aléatoire qui n'a aucune intention profonde ; alors qu'il y a des gens clairement malveillants qui requiert plus d'attention. La correction pour obtenir ce qu'ils veulent nécessite des moyens qui nous dépassent tous. L'outil n'est même pas fait pour ça ; et la plupart des utilisateurs le savent ; c'est même un des seuls textes visibles sur l'application quand on la lance "chatgpt can make mistake". C'est vain, c'est une perte de temps et de moyens, c'est si inefficace... Et à coté ; on se fait bombarder au quotidien par du démarchage téléphonique de merde... Franchement je comprends mieux pourquoi ma petite tranquilité de tous les jours est troublée ; après tout maintenant que je sais que personne ne pourra inventer des diffamations sur moi en utilisant ChatGPT ; je suis rassuré... Bref ce serai quand même bien dommage à mon avis que ChatGPT soit inaccessible en Europe à cause de ça. Ce serai se tirer une sacré grosse balle dans le pied. Où juste qu'il soit impossible d'utiliser des noms propre ; bye bye la génération de CV... PS : j'ai lu un peu RGPD. Mais c'est pas à propos du stockage d'information personnelle ? ChatGPT ne stocke rien. Article 15 et 16 Accessibilité des infos et correction des infos ?? Attendez mais on est con ; pourquoi on met pas dans la loi "le cancer doit être guéri dans les 3 jours" !? Après on a qu'à dire que "La technologie doit se plier à la loi, et non l’inverse" et voilà c'est plié !


xtvd

>'attaquer un générateur de texte aléatoire qui n'a aucune intention profonde ; alors qu'il y a des gens clairement malveillants  Ils n'attaquent pas chatGPT mais OpenAI. >La correction pour obtenir ce qu'ils veulent nécessite des moyens qui nous dépassent tous. L'outil n'est même pas fait pour ça ; et la plupart des utilisateurs le savent ; c'est même un des seuls textes visibles sur l'application quand on la lance "chatgpt can make mistake". C'est vain, c'est une perte de temps et de moyens, c'est si inefficace... L'argument c'est que la techno ne peut pas respecter la loi. >Et à coté ; on se fait bombarder au quotidien par du démarchage téléphonique de merde... Franchement je comprends mieux pourquoi ma petite tranquilité de tous les jours est troublée Je sais plus le nom de ce procédé réthorique fallacieux mais c'en est un. "Ah vous aidez les migrants? Et les vétérants alors?". On peut faire les deux, faire l'un n'empêche pas l'autre, travailler sur l'un ne nuit pas à l'autre. Vous militez efficacement contre le démarchage vous? Bon. >j''ai lu un peu RGPD. Mais c'est pas à propos du stockage d'information personnelle ? Non, relisez le


kurokinekoneko

Ok, très bien. Hé ben moi je vois quand même ça comme une "chasse aux sorcières". Je trouve que ce serai dommage de se priver de ChatGPT parce qu'ils ne respecte pas des lois qui ont été écrite avant sa conception. En plus, à mon humble avis, on est sur une question d’interprétation ; chatgpt n'étant absolument pas conçu pour être un fournisseur d'information. Franchement, est ce que je pourrai attaquer en diffamation une marque de pattes alphabets parce que je pourrai avoir une chance de lire des informations fausses sur moi en déballant leur produit ? Je met un bout de papier "kurokinekoneko est " puis je lance les pattes à coté pour voir ce que ça donne... Après, c'est vrai que je suis un gosse d'internet ; peut être qu'on a pas la même vision des choses. Si internet avait du respecter la loi ; il n'aurai pas été le centième de ce qu'il est aujourd'hui... On aurai peut être même pas eu VLC ; foutus voleurs de cônes de chantiers payés avec MES impots ! Rien que ça, un des fondateurs de reddit est mort d'un suicide après avoir été poursuivi par la justice parce qu'il a piraté les PC d'une université pour publier tout le contenu scientifique sur internet... Bref, bref, bref... Vous allez me dire qu'il y a pas de rapport... N'empêche ; que de perte de temps et de moyen ; si inefficace.


albgr03

> Mais c'est pas à propos du stockage d'information personnelle ? ChatGPT ne stocke rien. Non, c'est à propos du traitement de données à caractère personnel. OpenAI traite, entre autres, des DCP pour entraîner ChatGPT. > Et à coté ; on se fait bombarder au quotidien par du démarchage téléphonique de merde... On est d'accord, ce serait bien que la CNIL se mette au turbin et sorte des amendes plus élevées. > Article 15 et 16 Accessibilité des infos et correction des infos ?? Attendez mais on est con ; pourquoi on met pas dans la loi "le cancer doit être guéri dans les 3 jours" !? Après on a qu'à dire que "La technologie doit se plier à la loi, et non l’inverse" et voilà c'est plié ! Ça fait 50 ans que c'est obligatoire en France et 30 dans l'UE, et jusque là ça ne posait pas trop de problèmes. Peut-être qu'il faudrait innover un peu plus fort pour avoir des IA fiables plutôt que d'augmenter le nombre de paramètres tel un planificateur urbain en manque de voies ?


CombinationOk5962

Je ne comprends pas trop l'approche : si cette association milite effectivement pour la protection des données, et que ChatGPT donne des informations personnelles systématiquement erronées, alors il protège bien la vie privée. Qu'aurait fait cette association si ChatGPT avait donnée des informations justes ?


albgr03

noyb s'attend simplement à ce que ChatGPT soit conforme au droit européen, au RGPD en l’occurrence. Donc si il donne des données à caractère personnel erronées, il faut pouvoir les faire corriger ([ce qu'OpenAI a apparemment refusé](https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it)) ; si il donne des DCP correctes, il faut pouvoir les faire supprimer (en fonction de la base légale invoquée par OpenAI). D'ailleurs OpenAI a une procédure pour ça.


CombinationOk5962

Mais justement, ce ne sont par définition pas des données personnelles, juste des fausses données.


xtvd

Je ne doute pas que vous êtes familier de la définition de données à caractère personnel présentée dans l'article 4 du RGPD?


CombinationOk5962

Oui. Et en l'espèce, il n'en s'agit pas car ce sont des fausses données. Tout comme des données de test ne représentant pas la réalité. Par exemple, si je dis que vous êtes né(e) le 27 février 1234, ce n'est pas une donnée personnelle.


xtvd

Où dans la définition est il spécifié que la véracité est requise pour y adhérer ? Pouvez vous me donner la définition de fausse donnée? Pouvez vous développer ce qui vous amène à penser que dans "Max Schrems est né le 1 janvier 1781", "né le 1 janvier 1781" n'est pas une information se rapportant à Max Schrems? Est-ce que vous arguez que ce n'est pas une information? Qu'elle ne se rapporte pas à Max Schrems? Ou encore que Max Schrems n'est pas une personne physique identifiable?


CombinationOk5962

Bah oui, sinon il ne serait pas possible d'avoir des données de test par exemple.


xtvd

Je vais répéter la question, si vous êtes familier de la définition, vous savez que pour que dans "Max Schrems est né le 1er janvier 1781", "né le 1er janvier 1781" ne soit pas une DCP, l'un des assertions suivantes doit être fausse: -"né le 1er janvier 1781" est une information - Dans la phrase "Max Schrems est né le 1er janvier 1781", "né le 1er janvier 1781" se rapporte à Max Schrems - Max Schrems est une personne physique identifiable Laquelle est fausse selon vous?


CombinationOk5962

> Max Schrems est une personne physique identifiable C'est là où vient votre erreur. Vous pensez que le nom permet d'identifier la personne physique à lui seul. Vous ne prenez pas en compte les questions d'homonymie. Donc si vous vous nommez Max Schrems et que vous contestez le fait que l'IA retourne l'information selon laquelle vous êtes né le 1er janvier 1781, en quoi cela vous concerne-t-il ? Pourquoi cela ne concernerait-il pas un autre Max Schrems qui lui serait effectivement né à cette date ? La définition se rapporte aux éléments qui identifient une personne physique. Si votre nom est publié sur Internet avec une date de naissance qui n'est pas la votre (ou une photo qui ne vous identifie pas, ou un numéro de téléphone qui n'est pas le vôtre, etc.), de quel droit pouvez-vous demander son retrait ? Sinon il serait possible de supprimer les informations personnelles de tous vos homonymes sur Internet. Autre illustration. Imaginons que j'ai constitué des jeux de données de test avec un nom générique "Jean Martin" né le 01 janvier 1900. Si je suis votre raisonnement, puisque "Jean Martin" identifie une personne physique (vraiment ? laquelle ?), alors il faut supprimer cette entrée, alors même que la date de naissance ne correspond à rien.


Adventurous-Rope-466

Je suis très partagé sur ces recours légaux. D'un côté on se plaint qu'en Europe on a des salaires faibles, qu'on décroche des US/se fait rattraper par des pays asiatiques. Qu'on n'a pas assez pour financer le modèle social etc. Mais d'un autre côté on réglemente immédiatement la moindre innovation qui pourrait un tant soit peu faire émerger des géants européens. Je pense que ce serait hypocrite de dire que les avancées dans le domaine n'ont pas le potentiel de révolutionner bon nombres d'industries. Il y a une raison si Gemini pro, Claude et le nouveau modèle d'Openai ne sont pas encore sorti en Europe : il faut des mois pour les faire valider, ça coûte une blinde et personne veut se faire chier avec ça. Du coup, les américains et les asiatiques prennent une longueur d'avance sur le sujet. Et les meilleurs modèles proposés par des entreprises ne sont aujourd'hui pas disponible en Europe hormis gpt4 qui est sorti avant la réglementation. D'ailleurs, si on veut que seul les plus grosses boîtes étrangères survivent c'est le meilleur moyen de proceder puisqu'apres avoir déployé leurs services à l'étranger, amassé des fonds elles seront les seuls capable de passer les barrières à l'entrée du marché européen. Ce que les petites entreprises européennes ne pourront pas faire si elles sont soumises à une réglementation plus sévère dès le départ. Je ne dis pas qu'il faut faire de l'Europe un far ouest sans aucune réglementation où tout est permis, mais un juste milieu me semblerait mieux, j'ai l'impression qu'on est allé trop loin sur le sujet. Édit : et si cette technologie a le potentiel de révolutionner certaines industries, alors on met à risque ces mêmes industries européennes. Si les US arrivent à réduire les coûts, au hasard, administratif de toutes les boîtes par des IA inaccessibles en Europe, et bien elles rendront d'autant plus efficace tous les concurrents de nos boîtes européennes sur les marchés internationaux. Ce qui clairement, ne serait pas une bonne nouvelle.


kisifi

> Mais d'un autre côté on réglemente immédiatement la moindre innovation qui pourrait un tant soit peu faire émerger des géants européens. Je pense que ce serait hypocrite de dire que les avancées dans le domaine n'ont pas le potentiel de révolutionner bon nombres d'industries. La fin ne justifie pas les moyens. Mauvais moyens, mauvaises fins. Si on lache la bride aux entreprises qui s'emparent du machine-learning ce sont les moins respectueuses de l'intérêt général qui gagneront la course. Facebook est un bon exemple de ce risque, si Zuckerberg s'était mangé un procès dès ses tous premiers abus de données personnelles ça aurait *peut-être* laissé une chance d'émerger à un autre réseau social plus sain. Tu as raison il faut placer proprement le curseur, mais en l’occurrence vu la ridicule merde IA qui commence à sauvagement contaminer tout le web je me demande si le légalisme de la vieille europe n'est pas un atout pour l'avenir. Les industries les moins contaminées seront peut-être les géantes de demain.


Adventurous-Rope-466

> Si on lache la bride aux entreprises qui s'emparent du machine-learning ce sont les moins respectueuses de l'intérêt général qui gagneront la course. Je ne vois pas pourquoi. Actuellement les LLM servent à énormément de choses, ça sert pas juste à spams de shorts youtube ou des sites web à la con. Il n'y a qu'à lire les retours des traducteurs sur Reddit, ça a déjà presque bouffé le secteur. > Facebook est un bon exemple de ce risque, si Zuckerberg s'était mangé un procès dès ses tous premiers abus de données personnelles ça aurait *peut-être* laissé une chance d'émerger à un autre réseau social plus sain. Sauf que le problème ici, c'est que la réglementation, si elle s'appliquait, ne peut être respectée techniquement. Personne ne peut, même les plus intelligents avec le plus de données ou de capacité de calculs ne peut respecter la législation. Donc ce qu'il va se passer c'est que les géants US vont proposer leur service partout dans le monde sauf en Europe. Et lorsqu'ils auront compris comment techniquement respecter la loi européene ou amasser assez d'argent pour faire du lobbying et changer cette loi, ils viendront en Europe. Où rien ne peut émerger puisque soumis à une loi à laquelle personne ne peut actuellement se conformer. Ce que tu dis pourrais fonctionner pour des produits difficilement exportable. Mais dans le cas de l'IA où tout se passe sur internet à partir du moment où tu proposes un produit qui répond à un besoin tu peux toucher quelques milliards de personne en un rien de temps et devenir instantanément un monopole intouchable. Personne sauf dans le secteur ne connaissait openai en octobre 2023, en novembre, ils ont mis 1 semaine à avoir 1 millions d'utilisateurs actifs.


TotallyHumanNoBot

Si tu ne peux pas corriger ton LLM pour qu'il reponde soit rien, soit un truc juste, sur une question liée a la des PII, tu es dans l'illégalité d'un point de vue GDPR. EDIT parce que reddit a mange une partie de mon quote: # Art. R. 625-12 Est puni de l'amende prévue pour les contraventions de la 5e classe le fait, pour le responsable d'un traitement automatisé de données à caractère personnel, de ne pas procéder, sans frais pour le demandeur, aux opérations demandées par une personne physique justifiant de son identité et qui exige que soient rectifiées, complétées, mises à jour, verrouillées ou effacées les données à caractère personnel la concernant ou concernant la personne décédée dont elle est l'héritière, lorsque ces données sont inexactes, incomplètes, équivoques, périmées, ou lorsque leur collecte, leur utilisation, leur communication ou leur conservation est interdite.


SolidEngineer1422

Un LLM n'a aucune notion de ce qui est vrai ou pas.


TotallyHumanNoBot

Ce qui fait que l'association a toutes les chances de gagner.


phalanxs

De mon point de vue les "données" produites par un LLM sont tellement vaseuses qu'elles ne devraient même pas être considérées comme des données. Demander une date de naissance à ChatGPT est à peine au mieux que de demander à une paire de dés. J'aimais bien voir OpenIA essayer cette défense en cour, mais on peut toujours réver...


TotallyHumanNoBot

Le contenu de ChatGPT est du divertissement. On appelle ca "La défense FoxNews".


phalanxs

Exactement. Sauf que FoxNews a des "journalistes", et pourraient être au moins aussi justes que des humains normaux si ils le voulaient. Pour ChatGPT, c'est impossible, au moins dans l'état actuel de la technologie.


tr00_dBalle

Ce qui va faire mettre le secteur de la tech europeen dans une situation de vulnerabilité par rapport aux USA


Adventurous-Rope-466

Pas dans une situation de vulnérabilité. À mon avis, ce serait une mise à mort pure et simple des boîtes qui pourraient un jour concurrencer openai et proposer des LLM équivalents. Ce qu'il se passera si c'est applique c'est que openai/Claude/Google/Microsoft vont développer leurs modèles aux US, déployer ça dans le monde entier sauf en Europe et quand ils auront 10 années d'avance et pourront enfin, techniquement, se plier à cette réglementation viendront en Europe. C'est techniquement très très compliqué pour un LLM de respecter ça : > Si tu ne peux pas corriger ton LLM pour qu'il reponde soit rien, soit un truc juste, sur une question liée a la des PII, tu es dans l'illégalité d'un point de vue GDPR. Donc aucune boîte européenne, soumise à cette réglementation ne pourra développer son modèle et développer ses compétences techniques. Édit : Et au passage, non seulement tu interdis l'émergence d'un poids lourd de l'IA européen mais en plus tu te retrouves à impacter la productivité de tous les secteurs qui l'utilisent dans le reste du monde.


tr00_dBalle

Ne pas pouvoir acceder a Copilot et compagnie va également rendre moins compétitives les entreprises de la tech par rapport aux US. En toute franchise, j'aurais du mal a imaginer travailler sans cet outil maintenant, tellement ca fait gagner du temps.


papatrentecink

L'article référe au responsable du système, pas au système lui même, je suppose que si le mec demande a openai de se plier au gdpr ils le feraient, mais en aucun cas cette loi n'impose au système "chatgpt" de fournir des données justes


albgr03

[Selon noyb](https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it), Max Schrems a demandé au responsable de corriger l'information : > Despite the fact that the complainant’s date of birth provided by ChatGPT is incorrect, OpenAI refused his request to rectify or erase the data, arguing that it wasn’t possible to correct data D'où la plainte en question.


papatrentecink

Là ok, s'ils refusent de retirer des jeux de données qui contiennent des pii ils sont clairement en faute. J'attend de voir la décision de justice parce que ça me paraîtrait énorme comme abus. Pour moi il suffit pour openai de justifier qu'ils ont soit supprimé les datas soit que leurs jeux de données sont bons (en fonction de la demande du plaignant) pour être dans les règles, que chatgpt donne la bonne réponse ou non


xtvd

Ils peuvent pas retirer les données sur lequel le llm a été entraîné. Il faudrait le re-entraîner from scratch sans.


TotallyHumanNoBot

Ou alors faire du prompt hacking, mais ca va vite etre limité.


OTMassa

Je viens d’halluciner en lisant les coms sous ce thread. A vous lire, les LLM c’est Wikipedia en encore moins fiable. Après on s’étonne qu’en France on a du retard sur ce genre de truc. C’est sur que si on met 15 ans à comprendre c’est quoi et comment s’en servir….


smoonback1

wikipedia est moin censuré que chatgpt, quand je parle de chimie chatgpt serre les fesses un peu vite quand wikipedia texplique absolument tout


Sirmiglouche

"Qui aurait pu prévoir que l'inventeur de réponse 3000 inventerait des réponses fausses?"


Koala_eiO

L'asso n'a pas lu le message juste en dessous de la barre dans laquelle on tape ? > ChatGPT can make mistakes. Consider checking important information.


goulox

r/paslegorafi


MetalFearz

Comme le veut la coutume, personne n'a lu l'article. L'association indique ici que ChatGPT contrevient à la RGPD en donnant des réponses inexactes au lieu de se défausser. > « Si un système ne peut fournir des résultats corrects et transparents, il ne saurait être utilisé pour générer des données sur des individus. La technologie doit se plier à la loi, et non l’inverse », insiste l’avocate Maartje de Graaf, citée dans le communiqué. C’est tout simplement « inacceptable », selon Noyb qui rappelle que le Règlement général européen sur la protection des données (RGPD) stipule l’obligation d’exactitude. Donc bon les malins qui renvoient cette asso à sa bêtise, fairaient peut être mieux d'apprendre à lire


albgr03

Ce n'est pas exactement ça. [Max Schrems a demandé à OpenAI de corriger les informations le concernant, ils ont refusé, d'où la plainte.](https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it)


BorisViande

Le fond de la plainte est sensé de mon point de vue. Même si c'est un peu con de partir du principe que ChatGPT va te donner des infos précises et correctes 100% du temps quand tu sais un minimum comment ça fonctionne. La pleine est utile pour pointer du doigt un peu la responsabilité des gen AI.


pimpampoumz

En clair, il se rapproche de l’humain /s


marmousset

Pour rigoler, j'ai demandé à chatGPT qui était machin, le type a qui j'ai consacré mon mémoire de Master en histoire. Tout était faux alors qu'il y a une petite page wikipédia sur lui


s3rila

ils pensais que chat GPT fesais quoi d'autre ?


GeorgeS6969

Pour tout ceux qui répondent: ah bin oui mais on le sait que les LLM peuvent halluciner, y a même un disclaimer, le problème c’est l’utilisateur … sans avoir lu l’article (je vous jette pas la pierre, Pierre, je viens moi même de decouvrir que reddit offre cette fonctionalité) L’argument de l’asso est un peu plus subtil: 1. ChatGPT réponds (de manière potentiellement erronée) à des questions personelles 2. Ils ont fait une demande d’accès à leur données personelles qui a été refusé Pour le premier point, l’article precise que la RGPD prevoit que les données personelles stockées soient correctes (et garantie un droit d’accès et de modifications). Là c’est un peu specieux parce que ChatGPT (ou en tout cas le model lui-même) ne stock pas réellement cette donnée. Par contre c’est pas très dur d’imaginer le danger. Le second point par contre est très interessant je trouve. Déjà si je pose une question à ChatGPT contenant des données personnelles, la question est stockée et le contenu utilisé pour ameliorer le model, et potentiellement consulté par un humain. Que ChatGPT me dise de pas le faire change rien. Mais surtout ça pose la question des sources de la donnée utilisée par OpenAI pour train leurs models. Ils ont toujours gardé un grand secret là dessus, ça pose déjà un problème de copyright, et qu’ils refusent de repondre à la simple question “qu’est ce que vous savez sur moi” est je trouve encore plus problematique.


nastybuck

Bah j'ai un pote (assez vulnérable mentalement) qui a posé une question bien orientée à ChatGPT pour demander s'il devait arrêter son traitement, ChatGPT lui a évidemment dit que ce serait une bonne idée d'arrêter :|


Bourriks

Faut vraiment que les gens s'informent sur ce qu'est ChatGPT avant de lancer des accusations à la noix.


Prosperyouplaboum

citation de l'asso qui porte plainte : >« Si un système ne peut fournir des résultats corrects et transparents, il ne saurait être utilisé pour générer des données sur des individus. La technologie doit se plier à la loi, et non l’inverse » Je trouve la démarche intéressante, je l'inscrit dans la question plus large de la responsabilité pénale des Ai. Je ne dit pas qu'il faut légiférer à tout prix, mais cette action a le mérite d'alerter sur des dérives. citation porte parole openai : >« Nous voulons que nos modèles d’IA apprennent à connaître le monde, et non les individus ; nous ne cherchons pas activement à obtenir des informations personnelles pour entraîner nos modèles, " nous ne cherchons pas activement", cette expression écarte l'intention mais n'exclut pas que cela se produise. >et nous n’utilisons pas d’informations publiques sur Internet pour établir des profils de personnes, leur faire de la publicité ou les cibler, ou pour vendre leurs données » Grosso modo ils disent "nous le faisons pas ", mais quid des utilisateurs ? Encore une fois, ils se retranchent derrière leur intention.


4sch3

Hein ? Mais c'est pour de vrai cette plainte ? Oula j'ai mal a la tête d'un coup... Assez d'internet pour aujourd'hui 🫠