Iemand die over AI waakt en het eerlijk houdt – en het is niet het publiek!

Mar 31, 2021

Het publiek hoeft niet te weten hoe kunstmatige intelligentie (AI) werkt om het te vertrouwen. Ze hoeven alleen te weten dat iemand met de nodige vaardigheden AI onderzoekt en de autoriteit heeft om sancties op te leggen als dit schade veroorzaakt of waarschijnlijk zal veroorzaken.

Dr. Bran Knowles, een senior docent data science aan de Lancaster University, zegt: “Ik weet zeker dat het publiek niet in staat is om de betrouwbaarheid van individuele AI’s te bepalen … maar we hebben ze niet nodig om dit te doen. “

Dr. Knowles presenteerde onlangs een onderzoekspaper ‘The Sanction of Authority: Promoting Public Trust in AI‘ op de ACM Conference on Fairness, Accountability and Transparency (ACM FAccT). Het artikel is mede geschreven door John T. Richards, van IBM’s TJ Watson Research Center, Yorktown Heights, New York.

Het grote publiek is vaak wantrouwend tegenover AI, wat zowel voortkomt uit de manier waarop AI in de loop der jaren is geportretteerd als uit een groeiend besef dat er weinig zinvol toezicht op is. De auteurs stellen dat grotere transparantie en meer toegankelijke uitleg van hoe AI-systemen werken, die worden gezien als een middel om het vertrouwen te vergroten, niet tegemoetkomen aan de zorgen van het publiek.

Een ‘regulerend ecosysteem’, zeggen ze, is de enige manier waarop AI op een zinvolle manier verantwoording aflegt aan het publiek en hun vertrouwen wint. Het publiek maakt zich niet routinematig zorgen over de betrouwbaarheid van voedsel, luchtvaart en geneesmiddelen, omdat ze erop vertrouwen dat er een systeem is dat deze dingen reguleert en elke overtreding van veiligheidsprotocollen bestraft.

In plaats van het publiek te vragen vaardigheden te verwerven om weloverwogen beslissingen te nemen over welke AI’s hun vertrouwen waard zijn, heeft het publiek dezelfde garanties nodig dat elke AI die ze tegenkomen hen geen schade zal berokkenen.

Ze benadrukken de cruciale rol van AI-documentatie bij het mogelijk maken van dit betrouwbare regelgevende ecosysteem. Als voorbeeld bespreekt de paper het werk van IBM over AI Factsheets, documentatie die is ontworpen om de belangrijkste feiten over de ontwikkeling en het testen van een AI vast te leggen.

Maar hoewel dergelijke documentatie informatie kan verschaffen die interne auditors en externe regelgevers nodig hebben om de naleving van opkomende kaders voor betrouwbare AI te beoordelen, waarschuwt Dr. Knowles ervoor om er niet op te vertrouwen om het vertrouwen van het publiek rechtstreeks te bevorderen.

`Als we niet erkennen dat de last om toezicht te houden op de betrouwbaarheid van AI bij zeer bekwame regelgevers moet liggen, dan is de kans groot dat de toekomst van AI-documentatie weer een ander toestemmingsmechanisme in de stijl van algemene voorwaarden is – iets dat niemand echt leest of begrijpt.

De paper roept op om AI-documentatie goed te begrijpen als een middel om specialisten in staat te stellen de betrouwbaarheid te beoordelen. AI heeft materiële gevolgen in onze wereld die echte mensen treffen; en we hebben oprechte verantwoording nodig om ervoor te zorgen dat de AI die onze wereld doordringt, helpt om die wereld beter te maken.

ACM FAccT is een informatica-conferentie die onderzoekers en praktijkmensen samenbrengt die geïnteresseerd zijn in eerlijkheid, verantwoording en transparantie in sociaal-technische systemen.

Ontvang meer wetenschappelijk nieuws op deze manier …

Word lid van de Connect-nieuwsbrief voor geweldig wetenschappelijk nieuws, features en exclusieve primeurs. Onze duizenden abonnees kunnen het niet mis hebben.