ChatGPT Lingo

Amai Chat GPT is ongelooflijk slecht in Lingo. Nu had ik eigenlijk wel verwacht dat het iets zou zijn waarin het excelleert?

(Of zit de kruiswoordraadsellobby hierachter? :sweat_smile:)


2 likes

ja, ik val hier 3 keer door de mand:

  • ik vul al eens zo’n ding in
  • het lukt niet altijd
  • ik wou cheaten met A.I.
    :see_no_evil::joy:
4 likes

(het woord was ‘dromer’ trouwens, zelf gevonden na het even te laten liggen :sweat_smile:)

Toch een bedenking rond A.I.
Ofwel was m’n prompt gewoon niet goed: niet concreet genoeg, te weinig context en vage instructies, geen uitleg over patroon.

Maar toch zou dat iets moeten zijn dat generatieve A.I. goed zou moet kunnen aanvullen, toch? Of niet?

1 like

Ik zou het ook verwachten, maar blijft patroon herkenning, vermoedelijk niet genoeg op getraind?

2 likes

Voor zover ik weet is letters en de volgorde er van inderdaad iets waar ChatGPT niet mee overweg kan.
Vragen als “geef alle bekende Belgen wiens naam begint met een K” lukt bvb ook niet goed. (Of toch een jaar geleden niet)

2 likes

Ik denk dat je een verkeerde veronderstelling maakt over wat generatieve AI is, en, dat eventueel verwart met andere “AI” die bestaat. En elke AI heeft zo zijn dingen waar ze goed in zijn, en waar ze slecht in zijn.

Kort samengevat, generatieve AI is:

  • je verwerkt een belachelijke hoeveelheid teksten (de “corpus” waarvan altijd sprake is) en je legt daar in enorm veel dimensies enorm veel relaties tussen.
  • je neemt een aantal input tokens. Dat kan de context zijn die je prompt + eerdere conversaties die je al had
  • je berekent stap voor stap op basis van wat je kent het woord dat statistisch het meest voor de hand liggend is. Als je ooit de kans krijgt moet je eens zo’n model met Ollama op je pc laten draaien. Je ziet hem dan ook letterlijk ieder woord berekenen.

't Is heel kort door den bocht want het is natuurlijk wel iets ingewikkelder, maar zo leg ik het meestal uit. Dat “statistisch” is belangrijk te beseffen, want, dat verklaart ook de hallucinaties waarvan ze altijd spreken
 als je 99% van de keren juist bent, zit je er soms naast.

Wat jij nu probeert te doen is een “logisch” proces op te lossen door een generatief algoritme, met andere woorden, jij veronderstelt dat GPT begrijpt wat je vraagt. Bvb: die sterretjes voor jou betekenen iets
 voor GPT betekent dat niets. Qua GPT heeft hij gewoon statistisch gezien een relatief goed antwoord gegeven op een tekst die vraagt om een 6 letterig nederlands woord te maken.

Nog een andere manier waarop je het kan bekijken: hoe vaak zal er op het internet jouw vraag staan, of, iets dat er op lijkt. Dat zal bijzonder weinig zijn. Bijgevolg zit dat niet in de corpus; bijgevolg gaat hij het niet genereren. Als een GPT model antwoord dat 2 + 2 4 is, dan is dat omdat hij dat al veel “tegengekomen” is in zijn corpus, en statistisch gezien het logische gevolg van 2+2= een karakter lijkt te komen dat 4 is. Maar dat is geen garantie, kijk maar naar de berichten die er zeker in het begin waren toen zelfs dat niet lukt. Men probeert dat nu te verbeteren om dat soort dingen die mensen als “blunders” beschouwen er uit te halen. Ik ga zo meteen eens proberen met OpenAI o1 of die het beter doet, want, die zou moeten beter kunnen redeneren.

Ik denk dat dit trouwens een “denkfout” is die heel veel mensen vandaag de dag maken. Je moet weten hoe die dingen werken en weten waar ze voor gemaakt zijn, en dan pas kan je er resultaten mee boeken. Dit soort zaken pak je beter aan met andere technieken, zoals neurale netwerken
 maar die moet je dan wel ook trainen maar die zijn typisch beter in patroonherkenningen.

Nu, vaak is de volgende reactie dan: ja, maar wat kan je er dan mee als het niet “perfect” is. Meestal is mijn antwoord: veel, en vaak veel meer dan met mensen, want mensen zijn ook niet echt perfect. En de corpus is echt wel gigantisch groot, dus voor heel veel dingen als je statistisch het meest waarschijnlijke neem, zal je er op zitten. Dus laat hem maar een advies schrijven voor een citytrip want je gaat nooit zelf zoveel tekst kunnen bij elkaar brengen rond dat onderwerp (in de veronderstelling dat je niet naar Ă©Ă©n of ander onbekend verlaten gat van de wereld gaat, want statistisch, you know).

2 likes

Dit is met o1-preview en hoe ik het zou prompten :slight_smile:

Direct lingo (haha, woordgrapje op bingo)

Let wel:

  • o1 heeft hierover 41! seconden “nagedacht” voor hij deze tekst genereerde.
  • Ergens in de wereld is een redelijke hoeveelheid electriciteit verbruikt om dit als resultaat te hebben, en, hebben we het klimaat weer wat warmer gemaakt :frowning:

Je ziet, ze werken er aan met de “geavanceerde” modellen, maar, met een “gewone” gpt kom je er niet aan uit

10 likes

Dit raakt me op zo many levels.

  1. Het uitgebreide in-depth antwoord die je geeft op een (schijnbaar) onnozele vraag.
  2. Je raakt nagels met koppen en legt het nog eens heel begrijpelijk uit.
  3. Woordspelingen op woordspelletjes
  4. Uit je antwoorden blijkt nog eens dat je de wereld beter wil maken
  5. Ever so humble
  6. Ik leer meteen weer een pak bij.

Computer Club at its finest. :smiling_face_with_three_hearts:
Dank je wel Wim!

8 likes