Large Language Models in debat ‘Debot’

 


De opkomst van generatieve AI met in de basis Large Language Models (LLM) lijkt niet meer te stuiten. Er is een algehele milde paniek ontstaan over modellen als ChatGPT maar ook open-source modellen als BLOOM of Dolly 2.0 en hun voorziene impact op de samenleving.
Het is belangrijk dat het maatschappelijke debat over deze impact, en over de risico’s maar ook de kansen zo breed mogelijk wordt gevoerd. Tegelijk is het belangrijk voor de publieke sector om zelf te leren wat de impact kan zijn van generatieve AI, en wat de risico’s en kansen zijn voor verschillende publieke domeinen.

Omdat deze AI systemen op vele niveaus (ondersteunend) ingezet kunnen worden binnen eigen software of die van derden is wetgeving voor de fundamentele modellen met aanvullende regelgeving voor toepassing van AI nodig. Maar naast wetgeving is vooral bewustzijn nodig over wat er nou echt gebeurd in AI. Onze bestuurders, ambtenaren en politici moeten begrijpen wat de impact is van een auteursrechtenschending in de trainingsdata of wat de echte risico’s zijn van des- en misinformatie. Het gaat niet om de algemene grote risico’s die veel rondgaan als ‘de risico’s van AI’ maar om de reële en juist kleinere risico’s met grote impact.

De voorziene maatschappelijke impact lijkt enorm; voor het handelsverkeer door het genereren van imitatie(kunst) en verregaande automatisering, maar ook het verspreiden van desinformatie. Wat betekent het voor de democratische rechtsstaat wanneer een AI bijvoorbeeld een kamerdebat kan voeren, en hiervan kan leren en zichzelf kan verbeteren? Hoe moeten fundamentele rechten worden geborgd bij de inzet en de ontwikkeling van AI? Voegen bepaalde toepassingen in het democratisch debat waarde toe, of zijn er toepassingen die niet horen in een democratie?

AI inzet heeft ook voor de hand liggende waarde om overheidsinformatie begrijpelijk te maken en beter aan te bieden aan burgers. De daarbij behorende ethische afwegingen zijn niet alleen die richting de burger zoals non-discriminatie en de menselijke maat, maar ook intern, moeten ambtenaren vrezen voor hun baan door de inzet van AI?

Wat in zijn algemeenheid al geldt voor veel technieken in dit tijdperk is dat de technologie het kennisniveau van de meeste mensen ontstijgt. Dat is meestal niet erg, zolang we maar mensen hebben die weten hoe het er onder de motorkap aan toe gaat. Om de keuzes die een AI neuraal netwerk (binnen een LLM) maakt te begrijpen is meer nodig dan enkel de broncode en trainingsdata openbaren. De opkomst van Explainable AI (XAI) biedt hier misschien wel soelaas in de toekomst, maar tot die tijd zullen we het ook nog moeten doen met veel toepassingen van black-box AI.

Allereerst is de wetgever aan zet. De Europese wetgever is reeds ver gevorderd met de AI act en de verwachting is dat deze aangenomen wordt in 2024. Om de wetgever te informeren over risicofactoren, effecten en het mitigeren van de risico’s bieden wij een manier aan om AI inzichtelijk te maken. Deze manier kan tegelijkertijd ook voor het brede publiek informatief zijn. Wij willen op transparante wijze AI aan het werk laten zien.

Met steun van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties voeren wij hierop een project uit.

We finetunen twee modellen op kamer- en kabinetscommunicatie. Dat zijn dus alle debatten, brieven, moties, notities etcetera uit een afgebakende periode. We laten deze modellen vervolgens debatteren om zo te verkennen wat er mis kan gaan en welke andere risico’s er zijn.

Large Language Models in debat ‘Debot’

 


De opkomst van generatieve AI met in de basis Large Language Models (LLM) lijkt niet meer te stuiten. Er is een algehele milde paniek ontstaan over modellen als ChatGPT maar ook open-source modellen als BLOOM of Dolly 2.0 en hun voorziene impact op de samenleving.
Het is belangrijk dat het maatschappelijke debat over deze impact, en over de risico’s maar ook de kansen zo breed mogelijk wordt gevoerd. Tegelijk is het belangrijk voor de publieke sector om zelf te leren wat de impact kan zijn van generatieve AI, en wat de risico’s en kansen zijn voor verschillende publieke domeinen.

Omdat deze AI systemen op vele niveaus (ondersteunend) ingezet kunnen worden binnen eigen software of die van derden is wetgeving voor de fundamentele modellen met aanvullende regelgeving voor toepassing van AI nodig. Maar naast wetgeving is vooral bewustzijn nodig over wat er nou echt gebeurd in AI. Onze bestuurders, ambtenaren en politici moeten begrijpen wat de impact is van een auteursrechtenschending in de trainingsdata of wat de echte risico’s zijn van des- en misinformatie. Het gaat niet om de algemene grote risico’s die veel rondgaan als ‘de risico’s van AI’ maar om de reële en juist kleinere risico’s met grote impact.

De voorziene maatschappelijke impact lijkt enorm; voor het handelsverkeer door het genereren van imitatie(kunst) en verregaande automatisering, maar ook het verspreiden van desinformatie. Wat betekent het voor de democratische rechtsstaat wanneer een AI bijvoorbeeld een kamerdebat kan voeren, en hiervan kan leren en zichzelf kan verbeteren? Hoe moeten fundamentele rechten worden geborgd bij de inzet en de ontwikkeling van AI? Voegen bepaalde toepassingen in het democratisch debat waarde toe, of zijn er toepassingen die niet horen in een democratie?

AI inzet heeft ook voor de hand liggende waarde om overheidsinformatie begrijpelijk te maken en beter aan te bieden aan burgers. De daarbij behorende ethische afwegingen zijn niet alleen die richting de burger zoals non-discriminatie en de menselijke maat, maar ook intern, moeten ambtenaren vrezen voor hun baan door de inzet van AI?

Wat in zijn algemeenheid al geldt voor veel technieken in dit tijdperk is dat de technologie het kennisniveau van de meeste mensen ontstijgt. Dat is meestal niet erg, zolang we maar mensen hebben die weten hoe het er onder de motorkap aan toe gaat. Om de keuzes die een AI neuraal netwerk (binnen een LLM) maakt te begrijpen is meer nodig dan enkel de broncode en trainingsdata openbaren. De opkomst van Explainable AI (XAI) biedt hier misschien wel soelaas in de toekomst, maar tot die tijd zullen we het ook nog moeten doen met veel toepassingen van black-box AI.

Allereerst is de wetgever aan zet. De Europese wetgever is reeds ver gevorderd met de AI act en de verwachting is dat deze aangenomen wordt in 2024. Om de wetgever te informeren over risicofactoren, effecten en het mitigeren van de risico’s bieden wij een manier aan om AI inzichtelijk te maken. Deze manier kan tegelijkertijd ook voor het brede publiek informatief zijn. Wij willen op transparante wijze AI aan het werk laten zien.

Met steun van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties voeren wij hierop een project uit.

We finetunen twee modellen op kamer- en kabinetscommunicatie. Dat zijn dus alle debatten, brieven, moties, notities etcetera uit een afgebakende periode. We laten deze modellen vervolgens debatteren om zo te verkennen wat er mis kan gaan en welke andere risico’s er zijn.

(Nederlands) Wil je meer weten over dit project of over verantwoorde inzet van AI? Neem contact op met senior projectleider Tim Vos-Goedhart via tim@openstate.eu

1 news posts about Transparent AI