Met dank aan Vincent Jordaan, OCLC, voor het vertalen van de oorspronkelijke Engelstalige blogpost.
Het volgende artikel is onderdeel van een doorlopende serie over het OCLC-LIBER programma “Building for the future” (Bouwen aan de toekomst).
Het OCLC Research Library Partnership (RLP) en LIBER (een vereniging van Europese onderzoeksbibliotheken) organiseerden op 17 april 2024 een begeleide discussie over Kunstmatige Intelligentie (KI/AI) en machine learning. De bijeenkomst maakte deel uit van de lopende reeks Building for the future (Bouwen aan de toekomst), waarin we onderzoeken hoe bibliotheken werken aan innovatieve dienstverlening, zoals beschreven in de LIBER-strategie 2023-2027.
Leden van het OCLC RLP-team werkten samen met de LIBER-werkgroep om discussievragen op te stellen en de groepsdiscussies te faciliteren. Deze aanpak was dezelfde als bij eerdere gesprekken over research data management en datagedreven besluitvorming.
Deelnemers uit 31 instellingen in 12 landen in Europa en Noord-Amerika namen deel aan de bijeenkomst. In dit artikel vind je een samenvatting van de belangrijkste punten uit de groepsdiscussies.
Nieuwsgierigheid, verwarring en onzekerheid
We begonnen de bijeenkomst met de vraag hoe deelnemers dachten over het gebruik van AI en machine learning in bibliotheken. De reacties liepen uiteen. Deelnemers waren nieuwsgierig naar en geïnteresseerd in het gebruik en de toekomst van AI, maar er was ook scepsis en bezorgdheid.
Tijdens discussies in subgroepen kwamen de volgende zorgen naar voren:
- Impact op het milieu door aanzienlijk energiegebruik;
- Privacy van gebruikersdata;
- Gebruik van auteursrechtelijk beschermd materiaal in grote taalmodellen (Large Language Models/LLM’s) en onzekerheid over intellectueel eigendom;
- Misinformatie door onnauwkeurigheid en hallucinaties van generatieve AI;
- Risico’s op kwaadaardige manipulaties, met name van spraakopnames;
- Overheersing van de Engelse taal in LLM’s;
- Informatie-overload
Bijscholing gebeurt alleen. De meeste mensen gaan zelfstandig aan de slag om hun AI-kennis te ontwikkelen door te experimenteren met verschillende tools. Bijna iedereen die deelnam aan deze discussie vond dat ze zich nog in de fase van experimenteren en leren bevonden. Er is dringend behoefte aan meer structuur en ondersteuning. Enkele deelnemers benadrukten hoe ze profiteerden van een teambenadering, bijvoorbeeld door het oprichten van een AI-werkgroep in de bibliotheek of het deelnemen aan begeleide discussies zoals deze.
Welke AI-tools gebruiken ze? We vroegen de deelnemers naar de tools die ze gebruiken. ChatGPT domineerde zoals verwacht de lijst, gevolgd door Microsoft Copilot. Andere tools die ze noemden waren onder andere Transkribus, eScriptorium en DeepL. Dit past bij de interesse van bibliotheken in tekst- en beeldtranscriptie, -analyse en -vertaling. Andere genoemde producten zoals Elicit, Gemini, ResearchRabbit, Perplexity en Dimensions AI passen dan weer meer bij het vinden van informatie en analyseren van onderzoek.
De institutionele context beïnvloedt de discussies over AI in bibliotheken. Veel deelnemers merkten op dat er een sterke institutionele focus is op academische integriteit. Organisaties ontwikkelen op verschillende niveaus – in lokaal verband, consortiumverband of verenigingsverband – beleidsregels en richtlijnen. Een voorbeeld hiervan zijn de principes voor het gebruik van generatieve AI-tools in het onderwijs van de Russell Group, een samenwerkingsverband van onderzoeksuniversiteiten in het Verenigd Koninkrijk. Deze principes benadrukken de academische integriteit en de rol van universiteiten bij het bevorderen van AI-vaardigheden en het verzekeren van gelijke toegang tot deze vaardigheden voor alle leden.
Onderzoeksuniversiteiten gaan nu enterprise-diensten aanbieden. Een aantal Amerikaanse instellingen introduceren lokale chatbots voor gebruik door docenten, medewerkers en studenten. Deelnemers van de University of California-Irvine deelden hun ervaringen met ZotGPT, ondersteund door de instelling en gebouwd op het Microsoft Azure-platform. Ze bieden dit kosteloos aan campusgebruikers aan. De tool kan de toegang tot experimenten verbeteren en tegelijkertijd privacykwesties aanpakken, omdat de data lokaal worden verwerkt. Dit is duidelijk een gebied waar we verdere groei kunnen verwachten.
Mogelijke toepassingen van AI in bibliotheken
We vroegen de deelnemers na te denken over de manier waarop bibliotheken gebruik kunnen maken van AI. Ze noemden veel ideeën die ik heb onderverdeeld in zes gebruikscategorieën:
- Beheer van metadata;
- Ondersteuning bij het helpen van gebruikers;
- Zoekfunctionaliteiten en inhoudsevaluatie;
- Transcriptie en vertaling;
- Data-analyse en gebruikersonderzoek;
- Communicatie en voorlichting.
Het beheer van metadata stond bovenaan de lijst. Verschillende deelnemers toonden interesse in het gebruik van machine learning-modellen voor het genereren van MARC-records. We hebben een aantal voorbeelden gehoord van verkenningen op dit gebied.
De Nationale Bibliotheek van Finland heeft bijvoorbeeld geëxperimenteerd met geautomatiseerde onderwerpsindexering, wat resulteerde in de ontwikkeling van de Annif microservice. In de Verenigde Staten heeft LC Labs van de Library of Congress het Exploring Computational Description (ECD) project opgezet om de effectiviteit van machine learning-modellen te testen bij het genereren van MARC-recordvelden voor e-books. Je leert hier meer over in de Engelstalige opname van dit OCLC RLP webinar.
Andere deelnemers hebben lokale inspanningen beschreven om tekstuele informatie te gebruiken voor het genereren van onderwerptitels en experimenten met tools zoals Gemini. De eerste resultaten waren teleurstellend vanwege de overvloed aan “fictieve data”, maar de deelnemers blijven toch optimistisch over de mogelijkheden.
Naast het creëren van metadata zijn deelnemers ook geïnteresseerd in hoe je AI en machine learning-technologieën kunt gebruiken om de kwaliteit van metadata te verbeteren. Hierbij kun je denken aan detectie van anomalieën en dubbele records of misschien detectie van onjuiste codering van talen in records. OCLC heeft verteld over het gebruik van machine learning voor het identificeren van dubbele records in WorldCat, met input van de catalogiseergemeenschap.
Ondersteuning bij het helpen van gebruikers. Diverse aanwezigen hadden interesse in het gebruik van kunstmatige intelligentie om een chatbot voor bibliotheken te ontwikkelen om gebruikers verder te helpen. Een chatbot die direct vragen beantwoordt op basis van informatie op lokale webpagina’s.
Een deelnemer van de Universiteit van Calgary deelde kort hoe hun bibliotheek een meertalige chatbot genaamd T-Rex heeft geïmplementeerd. Deze chatbot maakt gebruik van een LLM-model en retrieval-augmented generation (RAG). RAG is een methode waarbij een model extra informatie krijgt uit een opzoeksysteem om betere tekst te produceren. Het model is getraind op de websiteteksten van de bibliotheek, waaronder LibGuides (een online gids samengesteld door bibliothecarissen om gebruikers te helpen bij het vinden van informatie over specifieke onderwerpen), openingstijden en meer. Het systeem is al meer dan een jaar operationeel. Medewerkers beoordelen het positief, omdat het de behoefte aan menselijke ondersteuning bij eenvoudige vragen vermindert.[i]
Zoekfunctionaliteiten en inhoudsevaluatie. Deelnemers zijn ook geïnteresseerd in hoe AI-technologieën het zoeken kunnen verbeteren, bijvoorbeeld door zoeken met natuurlijke taalzinnen mogelijk te maken in plaats van met trefwoorden. We hoorden over enkele innovatieve projecten bij nationale bibliotheken ter ondersteuning van het verbeteren van de zoekervaring, zoals een chatbot die vragen beantwoordt op basis van de gedigitaliseerde krantencollectie van de Nationale Bibliotheek van Luxemburg.
Onderzoekers gebruiken diverse tools zoals Scite, Consensus, ResearchRabbit, Perplexity en Semantic Scholar om relevante bevindingen uit een breed scala een bronnen samen te vatten, citatieaanbevelingen te ontvangen en onderzoekslandschappen te visualiseren. De Generative AI Product Tracker, samengesteld door Ithaka S+R, fungeert als een handige gids voor dit uitgebreide ecosysteem.
Deelnemers beschreven ook hoe onderzoekers nieuwe AI-functionaliteiten benutten die zijn geïntegreerd in bestaande onderzoeksindexen zoals Scopus en Dimensions. Vergelijkbaar met het eerder genoemde voorbeeld van de chatbot, lijkt het erop dat deze tools een hybride benadering hanteren. Ze gebruiken hierbij retrieval-augmented generation (RAG) om lokale indexen te bevragen en generatieve AI om de ontvangen informatie te verwerken tot een nauwkeurig antwoord op de oorspronkelijke vraag, met een minimum aan hallucinaties.
Transcriptie en vertaling. Bibliotheekmedewerkers zijn zeer geïnteresseerd in transcriptietools die de toegankelijkheid en het gebruik van cultureel erfgoed-collecties kunnen vergroten. In de discussies hoorden we over spraak-naar-tekst experimenten in de Nationale Bibliotheek van Noorwegen en de Koninklijke Bibliotheek van Denemarken, met behulp van automatische spraakherkenning-technologie (automatic speech recognition/ASR).
Verschillende deelnemers vermeldden het gebruik van de Transkribus en eScriptorium-platformen om tekstherkenning en beeldanalyse van gedigitaliseerde historische documenten te ondersteunen. Er is ook interesse in hoe deze tools onderzoekers kunnen ondersteunen die werken in talen die ze slecht beheersen.
Data-analyse en gebruikersonderzoek stond niet boven aan de lijst, maar meerdere deelnemers gaven aan geïnteresseerd te zijn in het gebruik van datawetenschap en AI-tools om meer te weten te komen over het gedrag van gebruikers. Zo hopen ze het beheer van de bibliotheek te verbeteren.
Communicatie en voorlichting. Eén deelnemer beschreef hoe hun bibliotheek ChatGPT gebruikt om content te genereren voor social media feeds van de bibliotheek, met menselijke beoordeling. Dit lijkt een algemene use case waar ik meer over verwacht te horen.
Verantwoorde processen ondersteunen
De deelnemers bespraken de noodzaak van verantwoorde AI-praktijken. Het ging hierbij vooral over het belang van transparante, controleerbare en inclusieve AI. Er was veel aandacht voor de noodzaak van transparantie van de gegevensbronnen van LLM’s, waaronder onderzoek naar de rechtmatigheid van gegevens die worden gescrapet voor gebruik in trainingssets.
Naast eerdere rapporten zoals Responsible Operations: Data Science, Machine Learning, and AI in Libraries van OCLC Research, zijn er veel andere onderzoeksprojecten, workshops en evenementen die bibliotheken helpen bij het nemen van ethische beslissingen over AI. Enkele voorbeelden zijn:
- Responsible AI in Libraries and Archives (door IMLS gefinancierd project aan de Montana State University)
- LC Labs AI Planning Framework
- De komende LIBER Annual Conference van 3-5 juli 2024, waar AI een centraal thema is. Dit komt terug in keynotes, workshops en presentaties.
- Research Libraries Guiding Principles for Artificial Intelligence (Association of Research Libraries)
Deelnemers deelden hoe zij denken dat bibliotheken het voortouw kunnen nemen, onder andere door het voorzitten van campusdiscussies over AI-geletterdheid, toepassingen en goede academische praktijken. De LIBER Data Science in Libraries Working Group (DSLib) heeft besproken hoe bibliotheken kunnen omgaan met AI-gegenereerde desinformatie en nepnieuws.
Leidende rol voor bibliotheken bij AI-geletterdheid
Bibliotheken kunnen een belangrijke rol spelen door het ondersteunen van onderwijs en training in AI-geletterdheid. Veel bibliotheken doen dit ook. Veel deelnemers zien dit als een essentieel onderdeel van informatievaardigheden. Bibliotheekmedewerkers moeten zich snel bijscholen om anderen te kunnen trainen.
Wat hebben bibliotheken nodig om succesvol te zijn?
Tijdens deze gesprekken vertelden deelnemers wat bibliotheken nodig hebben om succesvol verder te gaan. Bibliotheekmedewerkers moeten op zijn minst toegang hebben tot de juiste hulpmiddelen en genoeg tijd om te oefenen en te experimenteren. Alleen dan kunnen zij de expertise ontwikkelen die nodig is om als deskundigen op te treden en de bibliotheekactiviteiten op het gebied van AI te leiden.
Een deelnemer benadrukte bijvoorbeeld dat bibliothecarissen bekend moeten zijn met de beperkingen van LLM’s, zoals het genereren van nepcitaten, om gebruikers goed te kunnen ondersteunen bij het gebruik van chatbots. Daarnaast is er behoefte aan meer professionals met data-analysevaardigheden binnen de bibliotheek. Deze experts zouden deel moeten uitmaken van een multidisciplinair team. Dit sluit aan bij opmerkingen uit een eerdere sessie over het belang van datagedreven besluitvorming.
Momenteel verloopt de ontwikkeling van vaardigheden op een onafhankelijke en ad-hoc basis. Deelnemers gaven aan behoefte te hebben aan meer training, externe ondersteuning en voorbeeld use cases. Bovendien willen ze zinvol samenwerken met anderen in communities of practice, groepen mensen met een gedeelde interesse die regelmatig samenkomen om kennis en ervaringen uit te wisselen en zo hun vaardigheden en expertise te verbeteren.
Vooruitblik
Deze groepsdiscussies zijn waardevol omdat ze bibliotheekprofessionals uit verschillende tijdzones met elkaar verbinden. Sommige deelnemers voelden zich gerustgesteld doordat anderen dezelfde onzekerheden ervoeren tijdens de vroege stadia van ontdekking en experimentatie. Over het algemeen gaven de deelnemers aan zich enthousiast en hoopvol te voelen over de mogelijkheden van AI om de efficiëntie in bibliotheken te vergroten en tijd te besparen.
Kom op donderdag 6 juni naar het plenaire slotevenement van de OCLC-LIBER-serie Bouwen aan de toekomst. Tijdens deze sessie vatten we de belangrijkste aanknopingspunten uit de eerdere discussies samen, gevolgd door een paneldiscussie door vooraanstaande bibliotheekmedewerkers die hun visie geven op hoe onderzoeksbibliotheken kunnen samenwerken in deze uitdagende tijden. Je kunt je gratis aanmelden. Tot dan.
[i] Julia Guy et al., “Reference Chatbots in Canadian Academic Libraries,” Information Technology and Libraries 42, no. 4 (18 december 2023), https://doi.org/10.5860/ital.v42i4.16511.
Rebecca Bryant, PhD (she/her), previously worked as a university administrator and as community director at ORCID. Today she applies that experience in her role as Senior Program Officer with the OCLC Research Library Partnership, conducting research and developing programming to support 21st century libraries and their parent institutions.