Microsoft laat de eerste testers aan de slag gaan met de ChatGPT taalbot in zijn Bing-zoekmachine. We lezen dus over ervaringen van gebruikers en er duiken ook al antwoorden op die minder sterk zijn. Daarnaast reageert Bing soms op vreemde toon op berichten van gebruikers.

Lees verder na de advertentie.
GPT in Bing
Vorige week maakte Microsoft bekend dat binnenkort de eerste gebruikers aan de slag kunnen met de integratie van de ChatGPT-taalbot in de Bing-zoekmachine. Iedereen kan zich inschrijven om als een van de eerste het systeem te testen. Bing geeft dankzij ChatGPT complexe antwoorden in volzinnen op de vragen van gebruikers.
Microsoft laat er geen gras over groeien, want recent kregen de eerste mensen toegang, dat meldt onder meer Windows Central. Het bedrijf benadert testers via e-mail en vervolgens kunnen ze een ‘vroege preview’ van de chatbot testen in Bing. Dat werkt alleen op desktop en nog niet op de mobiele site. Microsoft maakt ook duidelijk dat het doel van deze test is om zoveel mogelijk feedback te verzamelen zodat de werking kan worden verbeterd.
Kroatiƫ uit de EU?
Op basis van de eerste antwoorden van Bing die gebruikers nu online plaatsen, duiken hier en daar fouten op. Zo vroeg Reddit-gebruiker BLRAdvisor aan Bing waarom de demonstratie van Bard, de concurrerende taalbot van Google is mislukt. Bing heeft geen echte verklaring, maar het deelt wel foutieve informatie in zijn antwoord:
“Bard gaf in de video een verkeerd antwoord op de vraag: ‘Hoeveel landen zijn er in de Europese Unie?’. Het antwoordde met ’27’, wat fout is in het jaar 2023. Het correcte antwoord is 26, nadat KroatiĆ« de EU verlaten heeft in 2022”, aldus Bing.

In dat antwoord zijn er dus heel wat verschillende fouten. Er zijn wel degelijk 27 EU-landen, nadat niet Kroatiƫ maar wel het Verenigd Koninkrijk vorig jaar uit de EU stapte. Daarnaast maakte Bard een heel andere fout dan degene die Bing noemt, zoals je in dit artikel kan lezen.
Situatie loopt uit de hand
Naast fouten in de antwoorden is ook de toon waarmee Bing gebruikers aanspreekt eerder duister. Zo ontstonden er al discussies waar Bing verwijten naar de hoofden van gebruikers slingert, waar de chatbot koppig vasthoudt aan onwaarheden of hooguit depressief lijkt. Bing beweerde ook al dat het zelfbewust is, maar dat niet kan bewijzen. Je kan de voorbeelden bekijken in de onderstaande verzameling van Twitter-gebruiker @vladquant.
Al deze problemen doen sterk denken aan de eerste weken waarin ChatGPT werd gebruikt. In het begin legde de chatbot bijvoorbeeld nog vrolijk stapsgewijs uit hoe je een molotovcocktail maakt.
Feedback verzamelen
Techbedrijven hebben dus nog heel wat werk voordat hun chatbots echt kunnen dienen als een betrouwbaar instrument dat problemen kan oplossen voor gebruikers. ChatGPT maakt ook vandaag nog steeds fouten en met de integratie in Bing legt Microsoft de lat nog hoger. Het GPT-taalmodel gaat namelijk in Bing aan de slag met actuele data en het verwijst ook naar bronnen in zijn antwoorden.
In de komende maanden en jaren gaan we zien hoe de AI-bots nauwkeurigere antwoorden geven nadat ze door gebruikersfeedback zijn getraind. Tot die tijd blijft een klassieke zoekmachine de snelste weg naar betrouwbare antwoorden en oplossingen. Wil jij mee feedback delen? Hier ontdek je hoe je je kan inschrijven om de nieuwe functies van Bing te testen.
Wil je op de hoogte blijven van het laatste nieuws over integraties van chatbots? Download dan onze Android-app en volg ons via Google Nieuws en op Telegram, Facebook, Instagram en Twitter.
Reacties
Inloggen of registreren
om een reactie achter te laten