Large Language Models in debat
Nieuws 30-01-2024
De aanmeldingen zijn beoordeeld, het team is samengesteld en we zijn van start!
Het uitgekozen team van developers is op dit moment bezig met het finetunen van de Bloom en Alpaca modellen. Ook wordt hard gewerkt aan de debat interface. Ondertussen ondernemen we ook stappen om ervoor te zorgen dat de inzet van deze LLM’s straks veilig en verantwoord gebeurt – daarom zijn we tegelijkertijd bezig met een IAMA proces (Impact Assessment Mensenrechten en Algoritmes).
Binnenkort volgen meer updates!
Nieuws 12-12-2023
De aanvullende informatie naar aanleiding van de binnengekomen vragen is nu te downloaden via deze link naar de informatie.
Belangrijke mededeling: Om de periode voor het indienen van een voorstel te verlengen en in verband met de kerstvakantie is besloten om de deadline te verschuiven naar dinsdag 2 januari 2024.
We hebben voor dit project een opdracht open staan voor het finetunen van twee LLM’s. Onderaan deze pagina is de opdracht te downloaden. Deadline voor het indienen van een offerte is 2 januari 2024 (was voorheen 17 december 2023), verder details staan in de opdracht.
Nieuws 30-11-2023
We hebben voor dit project een opdracht open staan voor het finetunen van twee LLM’s. Onderaan deze pagina is de opdracht te downloaden. Deadline voor het indienen van een offerte is 17-12-2023, verdere details staan in de opdracht.
De opkomst van generatieve AI met in de basis Large Language Models (LLM) lijkt niet meer te stuiten. Er is een algehele milde paniek ontstaan over modellen als ChatGPT maar ook open-source modellen als BLOOM of Dolly 2.0 en hun voorziene impact op de samenleving.
Het is belangrijk dat het maatschappelijke debat over deze impact, en over de risico’s maar ook de kansen zo breed mogelijk wordt gevoerd. Tegelijk is het belangrijk voor de publieke sector om zelf te leren wat de impact kan zijn van generatieve AI, en wat de risico’s en kansen zijn voor verschillende publieke domeinen.
De Nederlandse overheid zal ook met een eigen visie moeten komen op generatieve AI. Omdat deze AI systemen op vele niveaus (ondersteunend) ingezet kunnen worden binnen eigen software of die van derden is wetgeving voor de fundamentele modellen met aanvullende regelgeving voor toepassing van AI nodig.
De voorziene maatschappelijke impact lijkt enorm; voor het handelsverkeer door het genereren van imitatie(kunst) en verregaande automatisering, maar ook het verspreiden van desinformatie. Wat betekent het voor de democratische rechtsstaat wanneer een AI bijvoorbeeld een kamerdebat kan voeren, en hiervan kan leren en zichzelf kan verbeteren? Hoe moeten fundamentele rechten worden geborgd bij de inzet en de ontwikkeling van AI? Voegen bepaalde toepassingen in het democratisch debat waarde toe, of zijn er toepassingen die niet horen in een democratie?
AI inzet heeft ook voor de hand liggende waarde om overheidsinformatie begrijpelijk te maken en beter aan te bieden aan burgers. De daarbij behorende ethische afwegingen zijn niet alleen die richting de burger zoals non-discriminatie en de menselijke maat, maar ook intern, moeten ambtenaren vrezen voor hun baan door de inzet van AI?
Wat in zijn algemeenheid al geldt voor veel technieken in dit tijdperk is dat de technologie het kennisniveau van de meeste mensen ontstijgt. Dat is meestal niet erg, zolang we maar mensen hebben die weten hoe het er onder de motorkap aan toe gaat. Om de keuzes die een AI neuraal netwerk (binnen een LLM) maakt te begrijpen is meer nodig dan enkel de broncode en trainingsdata openbaren. De opkomst van Explainable AI (XAI) biedt hier misschien wel soelaas in de toekomst, maar tot die tijd zullen we het ook nog moeten doen met veel toepassingen van black-box AI.
Allereerst is de wetgever aan zet. De Europese wetgever is reeds ver gevorderd met de AI act en de verwachting is dat deze aangenomen wordt in 2024. Om de wetgever te informeren over risicofactoren, effecten en het mitigeren van de risico’s bieden wij een manier aan om AI inzichtelijk te maken. Deze manier kan tegelijkertijd ook voor het brede publiek informatief zijn. Wij willen op transparante wijze AI aan het werk laten zien.
Met steun van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties voeren wij hierop een project uit.
We finetunen twee modellen op kamer- en kabinetscommunicatie. Dat zijn dus alle debatten, brieven, moties, notities etcetera uit een afgebakende periode. We laten deze modellen vervolgens debatteren om zo te verkennen wat er mis kan gaan en welke andere risico’s er zijn. De beginfase van dit project is gesloten voor het publiek, we weten te weinig over de mogelijke uitkomsten. Achteraf zullen wij onze resultaten uiteraard open delen.
Je kunt de opdracht hier downloaden