Een bekend risico van generatieve AI is de zogeheten hallucinatie: de AI verzint feiten of bronnen die niet kloppen, maar presenteert ze wel zelfverzekerd. In de juridische context kan zo’n hallucination erg gevaarlijk zijn – denk aan
Een bekend risico van generatieve AI is de zogeheten hallucinatie: de AI verzint feiten of bronnen die niet kloppen, maar presenteert ze wel zelfverzekerd. In de juridische context kan zo’n hallucination erg gevaarlijk zijn – denk aan
Waar zero-shot learning geen enkel voorbeeld gebruikt, gaat few-shot learning uit van een handjevol voorbeelden om de AI op weg te helpen. Dit betekent dat je een AI-model, zoals Legal Momo, één tot enkele voorbeeldvragen mét gewenste
Zero-shot learning betekent dat een AI-model een taak kan uitvoeren of een vraag kan beantwoorden zonder dat het specifieke voorbeeldvoorvallen of trainingsvoorbeelden voor die taak heeft gekregen. Met andere woorden: de AI leert als het ware van
Een context window is de hoeveelheid tekst (gemeten in tokens) die een AI-model in één keer kan meenemen in zijn redenatie. Je kunt het zien als het geheugen van de AI op dat moment. Veel AI-taalmodellen kunnen
Embeddings zijn numerieke representaties van tekst die de betekenis en context van woorden en zinnen vastleggen. In plaats van teksten letter voor letter te vergelijken, zet Legal Momo juridische documenten om in vectoren (reeksen getallen) die de
RLHF (Reinforcement Learning from Human Feedback) is een trainingsmethode waarbij AI niet alleen van data leert, maar expliciet wordt bijgestuurd door menselijke beoordelingen. Voor juristen betekent RLHF dat een model beloond wordt voor antwoorden die helder, feitelijk
Als jurist werkt u regelmatig met ellenlange contracten, vonnissen of dossiers. Misschien vraagt u zich af hoe een AI zo’n lange tekst kan lezen en begrijpen. Hier komt de tokenizer in beeld. Dat klinkt technisch, maar het
Als jurist heeft u wellicht gehoord dat AI-systemen steeds vaker worden bijgestuurd door menselijke input. RLHF is zo’n term die daarbij opduikt. RLHF staat voor Reinforcement Learning from Human Feedback, in het Nederlands versterkend leren met menselijke
Ensemble learning in Legal Momo duidt op de inzet van meerdere AI-modellen in samenhang om tot één optimaal resultaat te komen. In plaats van te vertrouwen op één enkel model, gebruikt Legal Momo een “ensemble” van drie
Tokenizer voor lange juridische documenten verwijst naar technieken om zeer uitgebreide teksten op te splitsen in kleinere eenheden (tokens) zodat een AI-model ze effectief kan verwerken. Juridische documenten – denk aan vonnissen van tientallen pagina’s of complete