Inloggen Geen profiel? Registreer hier.

De AI-vertrouwenskloof en hoe je die dicht.

12/07/2024

Vertrouwen in AI mag er misschien zijn bij managers, werknemers denken daar niet zelden anders over. En juist die AI-vertrouwenskloof vergoot de kans op falende projecten. Dat stelt Hette Mollema, VP Benelux bij Workday.

Hij doet zijn uitspraak naar aanleiding van een recent bericht van werkgeversorganisatie AWVN, die stelt dat Nederlandse werkgevers huiverig zijn over de inzet van AI. Ze maken zich onder andere zorgen over de veiligheid.

Dat blijkt bovendien ook uit het Workday-rapport ‘Closing the AI Trust Gap‘. Zo vindt 42 procent van de werknemers dat hun bedrijf geen duidelijk inzicht heeft in welke systemen volledig geautomatiseerd moeten zijn en welke menselijke tussenkomst vereisen. Zelfs Drie op de vier werknemers stelt dat hun organisatie niet meewerkt aan AI-regulering.  En zeker vier op de vijf werknemers zegt dat hun bedrijf nog geen richtlijnen heeft, of heeft gedeeld, over verantwoord AI-gebruik.

“Het valt niet te ontkennen dat AI enorme kansen biedt voor bedrijfstransformatie, maar het ontbreekt werknemers en leidinggevenden aan vertrouwen dat AI op verantwoorde wijze wordt ingezet. 23 procent van de werknemers heeft er geen vertrouwen in dat hun organisatie bij de implementatie van AI de belangen van werknemers boven die van zichzelf stelt”, reageert Mollema. 

Om deze vertrouwenskloof te helpen dichten, moeten organisaties volgens Mollema een alomvattende benadering van AI-verantwoordelijkheid en -beheer hanteren. Ze moeten beleid ontwikkelen om de juiste balans tussen innovatie en vertrouwen te helpen vinden. “Door AI transparant en eerlijk te maken, kunnen leiders het vertrouwen van hun medewerkers winnen en zo de vrijwillige adoptie bevorderen. Responsible AI (RAI) heet dat. Dit is niet alleen ethisch, maar stimuleren van vertrouwen, betere besluitvorming en risicobeheersing biedt strategisch voordeel.” 

Ethische normen

Uitvoerbaar maken van Responsible AI kost tijd en inzet. Zo is het bouwen van AI-functies volgens Mollema niet zo ingewikkeld. De functie zo ontwikkelen dat de mens centraal staat bij elke beslissing, is moeilijker. AI moet voor mensen werken, niet andersom. “De mens centraal stellen betekent ook dat we AI moeten democratiseren, zodat het door iedereen kan worden gebruikt.”

Wat je nodig hebt voor echt vertrouwen is beschikbaar stellen van gedetailleerde documentatie over AI-modellen of het inbouwen van uitlegbaarheid. Je moet in de gebruikersinterface helde uitleggen hoe AI tot de beoogde resultaten komt. Mollema: “Dat is de transparantie die nodig is om vertrouwen in AI op te bouwen. En ja, ook dit kost meer inspanning. Maar uiteindelijk is dit het waard.”

 

 

-/-

BRON/SOURCES