Op 17 mei 2023 heeft EU-OSHA zestien casestudies gedeeld, om inzicht te geven in hoe taken kunnen worden geautomatiseerd met behulp van op AI gebaseerde systemen, en hoe dit het welzijn van werknemers kan bevorderen. Deze studies kijken naar de impact van deze systemen op veiligheid en gezondheid op het werk. Ze brengen ook in kaart wat de drijvende krachten zijn, wat de obstakels kunnen zijn en wat de succesfactoren zijn voor het optimaal gebruik van deze technologie, terwijl werknemers tegelijkertijd worden beschermd.
In de korte casestudy " Ai-based software to increase
fact checking’s speed, scale and impact (ID14)" wordt onderzocht hoe een
Britse liefdadigheidsorganisatie AI inzet voor factchecking. Het heeft hierdoor
een significante verbetering in snelheid, omvang en kwaliteit van hun werk
ervaren. Toch brengt de toepassing van AI uitdagingen met zich mee. Het kan
medewerkers blootstellen aan schadelijke content, zoals grafisch geweld of
haatdragende taal, die anders wellicht niet ontdekt zou worden. Hoewel er nog
geen negatieve gevolgen zijn waargenomen, stimuleert de organisatie een
ondersteunende werkomgeving om eventuele risico's voor medewerkers aan te
pakken.
1 Bedrijfsprofiel en situatieschets
De case studie betreft een Britse liefdadigheidsinstelling
met bijna 50 werknemers, opgericht 10 jaar geleden, die zich richt op
factchecking in de media. Ze ontwikkelen en gebruiken AI-gedreven tools om dit
proces te verbeteren en toegankelijk te maken voor nieuwsredacties wereldwijd.
Sinds 2015 maken ze software die factchecking versnelt en vergroot. Ze streven
ernaar om in de komende drie jaar factchecking drastisch te verbeteren met
machine learning. Het doel van hun technologie is niet om factcheckers te
vervangen, maar om hen te voorzien van de beste beschikbare tools.
Ze gebruiken AI-algoritmen, gebaseerd op natuurlijke
taalverwerking (NLP) - in het bijzonder een recent BERT model - die
verschillende taken uitvoeren in het factcheck proces. Dit systeem verzamelt en
controleert gegevens van verschillende bronnen zoals nieuwswebsites en sociale
media. De verzamelde input wordt gescand om te bepalen welke uitspraken moeten
worden gecontroleerd op feiten. Ze richten zich op beweringen van politici en
journalisten.
2 Impact op veiligheid en gezondheid op het werk
De invoering van geavanceerde robotica of op AI gebaseerde
systemen kan een brede impact hebben op veiligheid en gezondheid op het werk
(VGW). Het kan een aantal uitdagingen en kansen met zich meebrengen die uniek
zijn voor elke casestudy. Daarom is het belangrijk om mogelijke belemmeringen
en drijfveren in kaart te brengen om er in toekomstige projecten rekening mee
te houden. Deze nieuwe vormen van taakautomatisering kunnen zelfs leiden tot
veranderingen in het algemene VGW-beheer van een bedrijf. Via de interviews
zijn een aantal van deze factoren voor deze specifieke casestudy
geïdentificeerd en besproken.
Het gebruik van AI voor factchecking kan de blootstelling
aan schadelijke inhoud mogelijk verhogen, afhankelijk van wat de AI selecteert.
De liefdadigheidsinstelling merkt echter tot dusver geen toename van
blootstelling aan dergelijke inhoud door AI. Ze zijn alert op stress- en
mentale gezondheidsrisico's bij journalisten die zware onderwerpen onderzoeken,
maar stellen dat AI deze risico's niet verhoogt.
Het bedrijf biedt collegiale steun, regelmatige pauzes en
werkflexibiliteit aan om de algemene negatieve effecten te verminderen. Open
discussies en trainingen worden regelmatig gehouden om risico's te
identificeren, te vermijden en correct gebruik van AI-tools te waarborgen.
Hierdoor kunnen werknemers hun tijd beter benutten voor factchecking.
Ondanks zorgen over bureaucratisering door
taakautomatisering, blijven de kernvaardigheden van de werknemers
(journalistiek, factchecking, communicatie) onaangetast door AI-tools.
Werknemers behouden ook hun basisvaardigheden voor taken die AI uitvoert. De
organisatie voert periodieke “ethische audits” uit om eventuele negatieve
sociale of ethische gevolgen te controleren.
3 Belangrijkste bevindingen
Het gebruik van geavanceerde AI-systemen varieert per geval.
Toch kan het delen van ervaringen, zoals kansen, risico's, uitdagingen en
geleerde lessen, bedrijven helpen om veilig en succesvol AI te implementeren.
Dit bedrijf toont een verhoogd bewustzijn van de ethische implicaties van AI en
heeft interne ethische audits ingesteld om deze continu aan te pakken. Hoewel
de AI geen persoonlijke gegevens verzamelt, blijven ethische overwegingen
belangrijk.
Foute AI-beoordelingen of gemiste uitspraken, vooral bij
invloedrijke personen, kunnen de geloofwaardigheid schaden. Ethische audits
helpen om zulke zorgen te identificeren en aan te pakken.
Het bedrijf bevordert een ondersteunende werkomgeving, is
zich bewust van de risico's van journalistiek en factchecking (zoals
blootstelling aan schadelijke inhoud), en het gebruik van AI-systemen. Ze nemen
preventieve maatregelen om ethische risico's te identificeren en te vermijden.
Het bevorderen van een omgeving die zorgen over de technologie aanpakt, kan
bijdragen aan het welzijn van werknemers.
Bronnen:
EU-OSHA -
Using AI for task automation while protecting workers: eight case studies
provide new insights https://osha.europa.eu/en/highlights/using-ai-task-automation-while-protecting-workers-eight-case-studies-provide-new-insights
EU-OSHA –
Publications https://osha.europa.eu/en/publications