GGZ AI - Large Language Models (LLM): verschil tussen versies
Naar navigatie springen
Naar zoeken springen
| Regel 6: | Regel 6: | ||
De inzet van Large Language Models (LLM) binnen verslagleggingsanalyse verloopt als volgt: | De inzet van Large Language Models (LLM) binnen verslagleggingsanalyse verloopt als volgt: | ||
# Beschikbaarheid van het model | # '''Beschikbaarheid van het model:''' Een LLM (‘Large Language Model’) wordt bij de klant operationeel gemaakt op de ValueCare-server, of op een eigen server als er voldoende GPU-capaciteit aanwezig is. Om met het LLM te werken, moet er een verwerkingsovereenkomst met ValueCare afgesloten zijn. Een LLM is een geavanceerd kunstmatig neuraal netwerk dat getraind is op grote hoeveelheden tekst en natuurlijke taal kan begrijpen én genereren. | ||
# Training van het | # '''Training van het model:''' In tegenstelling tot traditionele taalmodellen is voor het LLM geen handmatig samengestelde trainingsset van bijvoorbeeld 1500 gevallen meer nodig. Dit betekent dat het model sneller en eenvoudiger inzetbaar is. Aanpassingen of updates in het model kunnen ook eenvoudiger en sneller doorgevoerd worden, omdat langdurige handmatige beoordelingen bij training overbodig zijn. | ||
# Toepassing en classificatie | # '''Toepassing en classificatie:''' Het LLM analyseert automatisch nieuwe verslagleggingen op basis van vooraf ingestelde prompts (richtlijnen of opdrachten die verschillen per controlethema). Het model beoordeelt per verslag of het vermoedelijk rechtmatig of onrechtmatig is, op basis van de kennis en patronen die het uit de getrainde data heeft opgedaan. | ||
# Presentatie van resultaten | # '''Presentatie van resultaten:''' De uitkomsten van het LLM worden overzichtelijk gepresenteerd in een actielijst voor de gebruiker. Hierin worden specifiek die casussen getoond waar het model adviseert om een verdere controle of beoordeling uit te voeren. | ||
# Verschil met taalmodellen | # '''Verschil met taalmodellen:''' Een belangrijk voordeel van het LLM ten opzichte van oudere taalmodellen is dat het geen grote, handmatige trainingsset vereist. Hierdoor bespaart de organisatie veel tijd, omdat medewerkers niet afzonderlijk regels hoeven te beoordelen voor het trainen van het model. Daarnaast geeft het LLM bij elke beoordeling ook een toelichting of onderbouwing (‘reden’) waarom het verslag als rechtmatig of onrechtmatig wordt ingeschat. Dit vergroot de transparantie en het inzicht in de werking van het controlesysteem. | ||
== Standaard Werkwijze voor LLM-controles == | == Standaard Werkwijze voor LLM-controles == | ||