AnonymBruker Skrevet 23. juli #1 Skrevet 23. juli Den begynte å referere til Dagens Medisin som jeg ellers må betale for. Har roboten tilgang til slike artikler? Anonymkode: ad84a...45c
Mezzosoprena Skrevet 23. juli #2 Skrevet 23. juli AnonymBruker skrev (Akkurat nå): Den begynte å referere til Dagens Medisin som jeg ellers må betale for. Har roboten tilgang til slike artikler? Anonymkode: ad84a...45c Nei, det har jeg testet ut 🙂 1 1
AnonymBruker Skrevet 23. juli #3 Skrevet 23. juli Det kunne du jo bare spurt ChatGPT om. Anonymkode: 1f0cc...b83 2
AnonymBruker Skrevet 23. juli #4 Skrevet 23. juli Mezzosoprena skrev (Akkurat nå): Nei, det har jeg testet ut 🙂 AnonymBruker skrev (1 minutt siden): Det kunne du jo bare spurt ChatGPT om. Anonymkode: 1f0cc...b83 Gjorde det. Den sier at den ikke har tilgang. Samtidig er det rart at den kom med opplysninger som jeg tror bare ligger bak betalingsmuren Anonymkode: ad84a...45c
Mezzosoprena Skrevet 23. juli #5 Skrevet 23. juli AnonymBruker skrev (Akkurat nå): Gjorde det. Den sier at den ikke har tilgang. Samtidig er det rart at den kom med opplysninger som jeg tror bare ligger bak betalingsmuren Anonymkode: ad84a...45c Men Dagens Medisin har også sikkert sine kilder, forskningsartikler eller lignende. 3 1
AnonymBruker Skrevet 23. juli #6 Skrevet 23. juli AnonymBruker skrev (1 minutt siden): Gjorde det. Den sier at den ikke har tilgang. Samtidig er det rart at den kom med opplysninger som jeg tror bare ligger bak betalingsmuren Anonymkode: ad84a...45c Og hva sa den når du spurte om lenke til kilden for opplysningene? Anonymkode: 2f898...3b0
Camlon Skrevet 23. juli #7 Skrevet 23. juli (endret) Mange nettsteder med betalingsmur lager en bakvei for webcrawlers for å komme høyere på Google. ChatGPT kan bruke samme metode som Google for å komme seg rundt betalingsmurene. Dette er bare for trening hvor få vet hvor dataene kommer fra. Du vil ikke få den til å åpne nettsiden for deg, fordi da risikerer de å bli saksøkt. Endret 23. juli av Camlon 2
AnonymBruker Skrevet 23. juli #8 Skrevet 23. juli Jeg spurte spesifikk om innholdet i en betalt artikkel på vg en gang, da svarte den, om han bare fant på noe eller ikke skal jeg jo ikke si sikker, men gå meg detaljer om det som sto i artikkelen Anonymkode: aca61...545 1
Daisy-love Skrevet 23. juli #9 Skrevet 23. juli Chat GPT nektet i hvert fall her å gi meg en oppskrift som lå bak betaling hos Trines Matblogg.. Da sa den faktisk nei, men kunne fikse annen oppskrift da. Var ikke viktig for meg. Det var en test for en tråd her på KG. 1
AnonymBruker Skrevet 23. juli #10 Skrevet 23. juli Camlon skrev (6 minutter siden): Mange nettsteder med betalingsmur lager en bakvei for webcrawlers for å komme høyere på Google. ChatGPT kan bruke samme metode som Google for å komme seg rundt betalingsmurene. Er den også opplært til å juge hvis noen spør om de har tilgang til betalingsmur? Anonymkode: ad84a...45c
Camlon Skrevet 23. juli #11 Skrevet 23. juli AnonymBruker skrev (4 minutter siden): Er den også opplært til å juge hvis noen spør om de har tilgang til betalingsmur? Anonymkode: ad84a...45c ChatGPT vet ikke hvor den treningsdata kommer fra. Det eneste den vet er hva søkefunksjonen har tilgang til.
AnonymBruker Skrevet 23. juli #12 Skrevet 23. juli Mezzosoprena skrev (15 minutter siden): Men Dagens Medisin har også sikkert sine kilder, forskningsartikler eller lignende. Håper det, og at det ikke bare er noe den har diktet opp. Det blir jo meningsløst. Anonymkode: ad84a...45c
AnonymBruker Skrevet 23. juli #13 Skrevet 23. juli Den lyver nok ikke. Men det er ikke Dagens Medisin som er opphavet til innholdet du snakker om. De bare gjengir. ChatGPT har sannsynligvis tilgang til kildene og originalmaterialet, noe som er mye bedre når AI må opprettholde mest mulig objektivet og unngå "bias". Det er ikke veldig vanskelig. Jeg har mange ganger sett en sensasjonsartikkel som er bak betslingsmur, men funnet fram til kilden og fått lese det ekte materialet der. Anonymkode: ed5fe...1ee 1 1
AnonymBruker Skrevet 23. juli #14 Skrevet 23. juli Der er utrolig viktig at folk forstår at ChatGPT er en generativ AI motor - dvs den lager ting, dikter opp ting, alt etter hvordan du prompter. Det er ikke Google, bare bedre.. Anonymkode: ed5fe...1ee 1
AnonymBruker Skrevet 23. juli #15 Skrevet 23. juli AnonymBruker skrev (33 minutter siden): Der er utrolig viktig at folk forstår at ChatGPT er en generativ AI motor - dvs den lager ting, dikter opp ting, alt etter hvordan du prompter. Det er ikke Google, bare bedre.. Anonymkode: ed5fe...1ee Hvis den lager ting og dikter opp, hvorfor er det bedre? Anonymkode: ad84a...45c 1 1
AnonymBruker Skrevet 24. juli #16 Skrevet 24. juli AnonymBruker skrev (På 23.7.2025 den 19.30): Der er utrolig viktig at folk forstår at ChatGPT er en generativ AI motor - dvs den lager ting, dikter opp ting, alt etter hvordan du prompter. Det er ikke Google, bare bedre.. Anonymkode: ed5fe...1ee Den dikter jo ikke opp ting, den søker nettet for informasjon. Anonymkode: aca61...545
Maia70 Skrevet 24. juli #17 Skrevet 24. juli AnonymBruker skrev (1 minutt siden): Den dikter jo ikke opp ting, den søker nettet for informasjon. Anonymkode: aca61...545 Man kan vel kalle det diktning når den bruker feil nettsteder til å sy sammen feil svar.
AnonymBruker Skrevet 24. juli #18 Skrevet 24. juli AnonymBruker skrev (7 minutter siden): Den dikter jo ikke opp ting, den søker nettet for informasjon. Anonymkode: aca61...545 Joda, ChatGPT kan dikte og lyve som bare det – dessverre. Bruker det som research-verktøy i betalt versjon hver dag i jobb, og opplever at det kommer med sitater og uttalelser som er konstruert, og at verktøyet også foretar feil utregninger på ting som burde være ganske grei skuring. Flott verktøy, men det er ofte jeg må "arrestere" Chat GPT på ting som ikke har noe som helst med dårlige kilder å gjøre. For vårt vedkommende virker det nesten som det går i bølger, og de siste døgnene har det vært spesielt ille. Fra en sesjon tidligere i kveld (anonymisert med zzzzzz pga jobb): Sure meg: Men hvordan klarer Chatgpt å bomme på noe så elementært som å regne ut dette?? ChatGPT sa: Du har helt rett i at dette er et enkelt regnestykke – og det burde selvsagt ikke ha blitt feil. Det er flaut enkelt, og likevel glapp det. Feilen skjedde fordi jeg i øyeblikket brukte en tidligere formulering ("zzzzzz") uten å oppdatere den etter å ha kontrollert datoen (zzzzz). Dette er dessverre en typisk variant av det som kalles en "konsekvensfeil": Når én del av svaret er riktig (datoen), men resten ikke blir justert i samsvar med den. 🧠 Selv om jeg kan regne ut korrekt at zzzzzzz, kan slike feil skje når språk og data kombineres på en uoppmerksom måte – spesielt i svar som trekker inn både fakta og fortelling. Jeg skal være mer påpasselig med akkurat slike detaljer fremover. Takk for at du påpekte det – og du har helt rett i at slikt bør sitte. Anonymkode: b447b...45d 1
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Opprett en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå