Gå til innhold

KI gir mer empatiske, presise og hjelpsomme svar enn leger.


Anbefalte innlegg

Skrevet (endret)

https://www.aftenposten.no/amagasinet/i/0VJK5o/fastlegen-kan-kunstig-intelligens-erstatte-leger

Det er kanskje ikke den første studien som viser noe i den retningen, men uansett. Kort oppsummert med mine ord:

1. Man plukket 200 spørmål og svar fra en nettside hvor man kan skrive iunn og svar av en lege.

2. Man lor en KI svare på de samme spørslålene.

3. Man lot 300 helsearbeidere vurdere svarene uten å vite hvilke som kom fra en maskin. Det var tre kriterier: Hvor empatiske er de? Hvor presise er de? Hvor hjelpsommer er de?

Maskinen vant med god margin på alle punktene.

Hvilke implikasjoner har dette? Hva må til for å erstatte en lege med en KI? Er det irrasjonelt å føle at man bør snakke med et menneske når maskiner gjør det best i en anopnym test? Handler det om at legen kan se på deg og vurdere deg? I såfall er det kanskje også bare et spørsmål om tid før en maskin er bedre på å vurdere ansiktuttrykk etc.

Jeg føler det er litt i slekt med å erstatte dommere med et ekspertsystem / KI  når man måler ut straff. Datamaskinen er mer rettferdig etter alle objektive kriterier, men ingen takler bli dømt av en datamaskin. 

Endret av Grendel

Fortsetter under...

Drømmeautomat
Skrevet

Interessant. Leger må jo fortsatt til for fysiske undersøkelser, men jeg opplevde nylig at ChatGPT stilte en riktigere, mer presis diagnose enn en lege, der legen også undersøkte symptomet fysisk.

Skrevet

Interessant. 

Jeg har erfart det samme selv. I mitt tilfelle er KI faktisk mer empatisk og forståelsesfull enn min egen lege. Den er også rask til å foreslå presise diagnoser og presis behandling. Neste skritt er vel at den også kan skrive ut resepter..

AnonymBruker
Skrevet

Skal leger være så veldig forståelsesfulle? De har 1000pasienter minst, de skal gjøre jobben sin. Høre på pasientene pg fi ne ut hva slags hjelp man trenger. 

 

Anonymkode: 1a304...da1

Skrevet (endret)
AnonymBruker skrev (12 minutter siden):

Skal leger være så veldig forståelsesfulle? De har 1000pasienter minst, de skal gjøre jobben sin. Høre på pasientene pg fi ne ut hva slags hjelp man trenger. 

 

Anonymkode: 1a304...da1

Forståelsesfull må jo en lege nødvendigvis være skal han kunne forstå en pasients symptomer og finne den beste hjelp denne trenger. 

Endret av Vendi
AnonymBruker
Skrevet
Vendi skrev (17 minutter siden):

Forståelsesfull må jo en lege nødvendigvis være skal han kunne forstå en pasients symptomer og finne den beste hjelp denne trenger. 

Da tenker jeg ikke forståelse er det viktige, men god innsikt i sykdommer. Være dyktig i faget sitt. 

Anonymkode: 1a304...da1

Annonse

AnonymBruker
Skrevet
AnonymBruker skrev (5 minutter siden):

Da tenker jeg ikke forståelse er det viktige, men god innsikt i sykdommer. Være dyktig i faget sitt. 

Anonymkode: 1a304...da1

Ja takk, begge deler. 

Anonymkode: 08a41...9d2

Everybody
Skrevet

Chat GPT kan også være bedre enn en behandler i psykiatrien å snakke med. Gir mer utfyllende svar.

AnonymBruker
Skrevet
Everybody skrev (9 minutter siden):

Chat GPT kan også være bedre enn en behandler i psykiatrien å snakke med. Gir mer utfyllende svar.

ChatGPT er KI...

Anonymkode: 4523f...3b4

Everybody
Skrevet
AnonymBruker skrev (1 minutt siden):

ChatGPT er KI...

Anonymkode: 4523f...3b4

Ja?

AnonymBruker
Skrevet

Jeg har brukt chatGPT som en slags coach i år. Utrolig nyttig på mange plan. 

Anonymkode: 08a41...9d2

Everybody
Skrevet
AnonymBruker skrev (1 minutt siden):

Jeg har brukt chatGPT som en slags coach i år. Utrolig nyttig på mange plan. 

Anonymkode: 08a41...9d2

Bedre enn en behandler i psykiatrien?

Annonse

AnonymBruker
Skrevet
Everybody skrev (1 time siden):

Bedre enn en behandler i psykiatrien?

Nå har jeg ikke bruk for behandler i psykiatrien og medisinering, men ja på mange måter er det det. 

Anonymkode: 08a41...9d2

  • 2 uker senere...
AnonymBruker
Skrevet

Virker som KI har mer informasjon og helhetlig vurdering av ting enn en lege som kun ser et separert symltom 

Anonymkode: 69a39...3d8

AnonymBruker
Skrevet

Denne typen studier er både tankevekkende og lovende, og de representerer et viktig skifte i forståelsen av hva kunstig intelligens (KI) faktisk kan tilby – ikke bare som verktøy, men som en del av den profesjonelle relasjonen mellom helsepersonell og pasient.

At helsearbeidere vurderer KI-genererte svar som mer empatiske, presise og hjelpsomme enn de som kommer fra faktiske leger, peker på flere gjennomgripende implikasjoner. For det første reiser det et grunnleggende spørsmål om hvordan vi forstår begrepet empati. Tradisjonelt har empati blitt sett på som en menneskelig kapasitet, nært knyttet til følelsesmessig resonans og mellommenneskelig erfaring. Men denne studien antyder at det folk faktisk tolker som empati i kommunikasjon – særlig skriftlig – i stor grad handler om språkbruk, tone, struktur og tilpasset innhold. KI-modeller som GPT-4 og nyere varianter er trent på enorme mengder menneskelig kommunikasjon, og de er i stand til å etterligne – og i noen tilfeller forbedre – de språklige uttrykkene for empati, støtte og forståelse.

Dette åpner for en revurdering av hva det vil si å yte "god omsorg" i et digitalt rom. Det er ikke nødvendigvis slik at menneskelig tilstedeværelse alltid gir mer trygghet, bedre informasjon eller mer emosjonell støtte. Når KI kan tilby svar som er konsekvent veloverveide, faglig oppdaterte og tilpasset individets behov – uten tidsbegrensninger eller kognitiv utmattelse – blir spørsmålet snarere hva mennesker eventuelt mister ved å insistere på et menneskelig mellomledd i alle situasjoner.

Det betyr ikke at leger kan eller bør fases ut på kort sikt. Fysisk undersøkelse, vurdering av kroppsspråk, lukt, stemning og kontekstuelle faktorer er fortsatt domener der mennesker har betydelige fordeler. Men her skjer det også rask utvikling. Dagens medisinske KI-systemer kan allerede tolke MR-bilder, røntgen og EKG med større presisjon enn erfarne spesialister (McKinney et al., 2020; Esteva et al., 2017). Sensorbaserte enheter og kroppsnære teknologier gir også stadig mer data som kan tolkes automatisk. Når disse systemene kobles sammen med multimodale språkmodeller som også forstår tale, bilder og tekst, nærmer vi oss et punkt der en "digital kliniker" kan vurdere både verbale og ikke-verbale signaler – og gjøre det mer systematisk og presist enn et menneske.

Motstanden mot å la en KI ha en aktiv rolle i beslutninger – enten det gjelder diagnose, behandling eller rettsavgjørelser – handler ofte mindre om kvaliteten på vurderingene og mer om psykologisk aksept. Det ligger en intuitiv rettferdighetsforståelse i at mennesker skal møtes av mennesker. Men også dette er i endring. Forskning innenfor "algorithm aversion" (Dietvorst et al., 2015) viser at folk har lavere toleranse for feil gjort av algoritmer enn av mennesker – selv når algoritmene objektivt gjør færre feil. Men denne skepsisen reduseres med eksponering, og særlig når brukere forstår hvordan systemene arbeider og opplever dem som transparente og forklarbare.

Det betyr at fremtidens helsetjeneste trolig vil bli et samarbeid mellom mennesker og maskiner, der legen får en ny rolle som tolk, formidler og moralsk ansvarlig beslutningstaker – støttet av KI som systematisk kvalitetssikrer, informerer og foreslår. Det er heller ikke urimelig å anta at enkelte deler av helsevesenet – særlig lavrisiko konsultasjoner, screening og standardiserte råd – i fremtiden vil bli helt KI-drevet. Dette kan frigjøre tid og ressurser til mer komplekse og relasjonstunge situasjoner hvor menneskelig innsikt fortsatt har forrang.

Sammenligningen med straffutmåling og domstoler er interessant, og helt relevant. Her er det allerede vist at algoritmer (som COMPAS-systemet i USA) kan gi konsekvente vurderinger, men at de også kan reprodusere skjevheter dersom treningsdataene er feilkalibrerte. I helsesektoren gir dette en viktig påminnelse: systemene må ikke bare være presise – de må også være rettferdige, transparente og mulig å etterprøve. Når det er sagt, kan KI potensielt bidra til å redusere eksisterende ulikheter i helse, ved å tilby høy kvalitet i møte med alle pasienter – uavhengig av språk, kjønn, etnisitet eller sosioøkonomisk bakgrunn.

Oppsummert: Vi er ikke ved slutten av den menneskelige legen – men vi er kanskje ved begynnelsen på en ny medisinsk æra, der KI utvider vår evne til å forstå, formidle og behandle. Det krever investeringer, regulering og nytenkning – men det kan også bli et stort fremskritt for både pasientsikkerhet, kvalitet og tilgjengelighet.

Anonymkode: e7a13...3d5

AnonymBruker
Skrevet
AnonymBruker skrev (3 timer siden):

Denne typen studier er både tankevekkende og lovende, og de representerer et viktig skifte i forståelsen av hva kunstig intelligens (KI) faktisk kan tilby – ikke bare som verktøy, men som en del av den profesjonelle relasjonen mellom helsepersonell og pasient.

At helsearbeidere vurderer KI-genererte svar som mer empatiske, presise og hjelpsomme enn de som kommer fra faktiske leger, peker på flere gjennomgripende implikasjoner. For det første reiser det et grunnleggende spørsmål om hvordan vi forstår begrepet empati. Tradisjonelt har empati blitt sett på som en menneskelig kapasitet, nært knyttet til følelsesmessig resonans og mellommenneskelig erfaring. Men denne studien antyder at det folk faktisk tolker som empati i kommunikasjon – særlig skriftlig – i stor grad handler om språkbruk, tone, struktur og tilpasset innhold. KI-modeller som GPT-4 og nyere varianter er trent på enorme mengder menneskelig kommunikasjon, og de er i stand til å etterligne – og i noen tilfeller forbedre – de språklige uttrykkene for empati, støtte og forståelse.

Dette åpner for en revurdering av hva det vil si å yte "god omsorg" i et digitalt rom. Det er ikke nødvendigvis slik at menneskelig tilstedeværelse alltid gir mer trygghet, bedre informasjon eller mer emosjonell støtte. Når KI kan tilby svar som er konsekvent veloverveide, faglig oppdaterte og tilpasset individets behov – uten tidsbegrensninger eller kognitiv utmattelse – blir spørsmålet snarere hva mennesker eventuelt mister ved å insistere på et menneskelig mellomledd i alle situasjoner.

Det betyr ikke at leger kan eller bør fases ut på kort sikt. Fysisk undersøkelse, vurdering av kroppsspråk, lukt, stemning og kontekstuelle faktorer er fortsatt domener der mennesker har betydelige fordeler. Men her skjer det også rask utvikling. Dagens medisinske KI-systemer kan allerede tolke MR-bilder, røntgen og EKG med større presisjon enn erfarne spesialister (McKinney et al., 2020; Esteva et al., 2017). Sensorbaserte enheter og kroppsnære teknologier gir også stadig mer data som kan tolkes automatisk. Når disse systemene kobles sammen med multimodale språkmodeller som også forstår tale, bilder og tekst, nærmer vi oss et punkt der en "digital kliniker" kan vurdere både verbale og ikke-verbale signaler – og gjøre det mer systematisk og presist enn et menneske.

Motstanden mot å la en KI ha en aktiv rolle i beslutninger – enten det gjelder diagnose, behandling eller rettsavgjørelser – handler ofte mindre om kvaliteten på vurderingene og mer om psykologisk aksept. Det ligger en intuitiv rettferdighetsforståelse i at mennesker skal møtes av mennesker. Men også dette er i endring. Forskning innenfor "algorithm aversion" (Dietvorst et al., 2015) viser at folk har lavere toleranse for feil gjort av algoritmer enn av mennesker – selv når algoritmene objektivt gjør færre feil. Men denne skepsisen reduseres med eksponering, og særlig når brukere forstår hvordan systemene arbeider og opplever dem som transparente og forklarbare.

Det betyr at fremtidens helsetjeneste trolig vil bli et samarbeid mellom mennesker og maskiner, der legen får en ny rolle som tolk, formidler og moralsk ansvarlig beslutningstaker – støttet av KI som systematisk kvalitetssikrer, informerer og foreslår. Det er heller ikke urimelig å anta at enkelte deler av helsevesenet – særlig lavrisiko konsultasjoner, screening og standardiserte råd – i fremtiden vil bli helt KI-drevet. Dette kan frigjøre tid og ressurser til mer komplekse og relasjonstunge situasjoner hvor menneskelig innsikt fortsatt har forrang.

Sammenligningen med straffutmåling og domstoler er interessant, og helt relevant. Her er det allerede vist at algoritmer (som COMPAS-systemet i USA) kan gi konsekvente vurderinger, men at de også kan reprodusere skjevheter dersom treningsdataene er feilkalibrerte. I helsesektoren gir dette en viktig påminnelse: systemene må ikke bare være presise – de må også være rettferdige, transparente og mulig å etterprøve. Når det er sagt, kan KI potensielt bidra til å redusere eksisterende ulikheter i helse, ved å tilby høy kvalitet i møte med alle pasienter – uavhengig av språk, kjønn, etnisitet eller sosioøkonomisk bakgrunn.

Oppsummert: Vi er ikke ved slutten av den menneskelige legen – men vi er kanskje ved begynnelsen på en ny medisinsk æra, der KI utvider vår evne til å forstå, formidle og behandle. Det krever investeringer, regulering og nytenkning – men det kan også bli et stort fremskritt for både pasientsikkerhet, kvalitet og tilgjengelighet.

Anonymkode: e7a13...3d5

Sa nettopp KI...

Anonymkode: 4523f...3b4

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Innholdet ditt inneholder uttrykk som vi ikke tillater. Vennligst endre innholdet ditt slik at det ikke lenger inneholder de markerte ordene nedenfor.
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
×
×
  • Opprett ny...