Kildekritik og ChatBots

Der er et lidt overset aspekt i debatten om Chat-robotter og Kunstig Intelligens (AI).

Fokus har været på på det filosofiske - hvorvidt der er tale om ”Intelligens”, og på det mere konkrete om hvordan, og i hvilket omfang, det vil påvirke vort arbejdsliv.

Det er imidlertid ofte blevet blevet overset, at de nye robotter vil påvirke den måde, vi søger viden, og dermed i sidste ende vor opfattelse af, hvad der er sandt.

Den revolution i mulighederne for at søge viden, der opstod med søgemaskinerne på nettet, har ændret vores tilgang til viden og indlæring. Det startende i det små med sider som AltaVista, og er siden blevet totalt monopoliseret af Google. Denne form for videns-søgning (Wikipedia, madopskrifter, reklamer, nethandel, YouTube etc.) gennem søgemaskiner, ledte dog altid til en liste af muligheder med synlige afsendere.

Som ganske almindelige brugere ved vi, at der imellem resultaterne vil gemme sig fejl, fake oplysninger, reklamer og måske ondsindede trolde, men vi har muligheden for at vælge ud fra en personlig vurdering af kilderne.

Lister har på Google ofte tusinder af links, hvor vi normalt vælger mellem de 5-10 øverste. Men under alle omstændigheder har vi muligheden for at se kilderne, og vurdere oplysningen ud fra den troværdighed vi tillægger hver enkelt.

Ikke sådan med en ChatBot. Her får vi ”1” (eet) eneste svar – velformuleret, autoritativt og blottet for kilder. Og dermed mister vi muligheden for at vurdere svarets troværdighed.

Der har inden for det sidste år være rigtigt mange test af hvorvidt de forskellige ChatBots svarer korrekt. Og det gør de naturligvis nogen gange. Og andre gange ikke. Og naturligvis; en ChatBots svar er baseret på indlæring fra sites på Internettet, der også ofte er fyldt med fejl, vildledning, reklamer, fakes og trolde, ganske som en websøgning. Og dertil er svaret baseret på træning, der - som det er i øjeblikket - er et til to år gammel.

I og med, at vi som brugere kun får eet eneste svar, og kilden/kilderne mangler, bliver vi udelukket fra at vurdere troværdigheden af svaret - og det er ikke godt for vor forståelse af sandhed.

Vi får kort sagt et svar fra ”noget” og ikke fra ”nogen” – og hér ligger et problem, der er blevet overset.