Een witte man van 70 kilo, tussen de 20 en 40 jaar; dat is de standaard proefpersoon die vaak gebruikt wordt in wetenschappelijk onderzoek. Op hem worden bijvoorbeeld medicijnen tegen reuma en de veiligheid van autogordels getest. En op basis van hem wordt apparatuur ontwikkeld die gebruikmaakt van kunstmatige intelligentie. Alleen, onze samenleving bestaat niet uit één soort mens. Wat te denken van vrouwen, kinderen of mensen met een andere etniciteit? “Door slechts te focussen op één type mens in wetenschappelijk onderzoek ontstaan blinde vlekken” aldus hoogleraar Ineke Klinge. “Met alle gevolgen van dien. Het lijkt me goed dat het ministerie van OCW – als grote financierder van onderzoek in Nederland - voorwaarden gaat stellen op het gebied van diversiteit in de inhoud van onderzoek.”
Volgens Ineke Klinge (professor emeritus gender medicine) zijn er meerdere oorzaken te noemen waarom de witte man nog steeds heel vaak als standaard proefpersoon wordt gebruikt in wetenschappelijk onderzoek. “Allereerst – en dat is een historisch feit – staat ‘de man’ al eeuwenlang voor ‘de mens’. Veel problemen van vrouwen werden in de biomedische wetenschap als niet interessant beschouwd en de klachten van vrouwen werden gebagatelliseerd. Daarnaast is het voor een wetenschapper fijn om gebruik te maken van een zo homogeen mogelijke groep. Als er weinig variatie is onder de proefpersonen, dan zijn bepaalde verschijnselen makkelijker te bestuderen en te analyseren.
Dat deze homogene groep vaak bestond uit witte jongemannen, heeft een praktische oorzaak. Vroeger werden proefpersonen vaak op universiteiten gezocht. En studenten waren toen eenmaal meestal man én wit. “Daarnaast vonden wetenschappers het veiliger en eenvoudiger om met mannen te werken”, legt Klinge uit. “Vooral bij medisch onderzoek. Mannen hadden niet zo’n ingewikkelde menstruatiecyclus om rekening mee te houden. En er heerste ook angst doordat er in het verleden heel vervelende dingen zijn gebeurd toen vrouwen bepaalde geneesmiddelen gebruikten, zoals bij het medicijn Softenon wat misvormingen bij het nageslacht bleek te veroorzaken.”
Geneesmiddelen en autogordels
Juist omdat de werking van geneesmiddelen - maar ook bijvoorbeeld het ontwerp van autogordels of apparaten met gezichtsherkenning - zo verschillend kan zijn voor mensen met een andere sekse, huidskleur, leeftijd of gewicht, moet in wetenschappelijk onderzoek niet meer alleen gebruik gemaakt worden van de witte, jonge man van 70 kilo als proefpersoon. “Het is wetenschappelijk echt fout om slechts één homogene groep te onderzoeken en vervolgens de resultaten uit te breiden naar gebruik voor allerlei andere groepen. Als een vrouw botst met een auto, geeft een autogordel die is getest op mannen niet de veiligheid die ze nodig heeft. De vorm en kwetsbaarheid van haar lichaam is totaal anders. Het verschil in de werking van geneesmiddelen kwam pas goed in beeld toen in de jaren ’90 in Amerika bleek dat van de tien geneesmiddelen die daar van de markt genomen moesten worden, er acht meer en ernstiger bijwerkingen gaven bij vrouwen.”
Revolutionaire verandering
Al in de jaren ’80 merkten feministische biologen op: ‘Hé, dit klopt niet!’. Toch veranderde er jarenlang niet veel aan de traditionele manier van wetenschappelijk onderzoek doen. “Totdat de Europese Commissie in 2001 aangaf dat er meer aandacht moest komen voor sekse- en genderverschillen in wetenschappelijk onderzoek, waaronder expliciet biomedisch onderzoek. En er werden consequenties aan verbonden. De commissie gaf alleen nog maar subsidie voor onderzoek dat voldoende aandacht schonk aan de invloed van gender- en sekseverschillen. Dat was een revolutionaire stap.”
Klinge ziet in de afgelopen jaren gelukkig veel verbetering in het biomedisch onderzoek, haar specialisme. “Er is meer bekend over het belang van de invloed van gender en sekse. Al gaat het ook nog regelmatig fout. Heel recent nog, in het onderzoek naar Covid19. Vanaf het begin was duidelijk dat mannen in de eerste fase zwaarder werden getroffen; dat heeft te maken met de verschillen in immuunrespons tussen mannen en vrouwen. Mannen kregen heftigere infecties. De impact van het virus en de coronamaatregelen lijken juist vrouwen harder te treffen, omdat zij vaker een baan in de zorg en daarnaast ook vaak een zorgtaak thuis hebben. Dit kwam uitgebreid in de media, net als het feit dat er gemiddeld meer mensen met een migratieachtergrond ziek werden bij deze pandemie. Je zou verwachten dat deze kennis zou worden meegenomen in de vele nieuwe onderzoeken die gestart werden na het uitbreken van de pandemie. Dat is echter maar zeer mondjesmaat en vaak helemaal niet gebeurd! Dit geldt niet alleen voor het testen van vaccins, maar ook voor het gebruik van diagnostische apparatuur. Zo blijkt de veelgebruikte oximeter, een apparaat dat de hoeveelheid zuurstof in je bloed meet, alleen goed te werken op een witte huid. Als er meer pigment in de huid zit, dan geeft het apparaat een hogere waarde aan dan de werkelijke hoeveelheid zuurstof in het bloed. Dat kan voor heel gevaarlijke situaties zorgen!”
Kunstmatige intelligentie
Naast dat er blinde vlekken bestaan in wetenschappelijk onderzoek, zie we dit ook bij het gebruik van kunstmatige intelligentie. Een onderwerp waar Sennay Ghebreab, universitair hoofddocent sociaal-intelligente AI, alles van weet. AI staat voor Artificial Intelligence, ook wel kunstmatige intelligentie. Sterk versimpeld is AI een technologie bestaande uit lerende systemen. Twaalf jaar geleden begon Ghebreab zich in te zetten voor de bewustwording van de impact van AI op de maatschappij. In de beginperiode waarschuwde hij voor de gevaren die bij deze wetenschap kwamen kijken. “Vooral in het verleden had je heel veel standaard en verouderde datasets. Er werden bepaalde bevolkingsgroepen gebruikt om AI-systemen te bouwen en te trainen. Op die manier ontstonden blinde vlekken in die systemen en waren de systemen niet representatief voor de mensen die ze daadwerkelijk gebruikten.” Een bekend voorbeeld van de negatieve gevolgen hiervan is het AI-systeem dat het Amerikaanse transportbedrijf Amazon ontwikkelde voor werving en selectie. “Die systemen waren getraind op historische data van werknemers, waarbij in het verleden mannelijke werknemers in de meerderheid waren en vaker promotie maakten. Het AI-systeem zag dit type profiel dan als een ‘goede werknemer’. Zo werd voor de werving en selectie van Amazon onterecht een algoritme gecreëerd met een voorkeur voor mannen. Zo propageer je ongelijkheden die al in organisaties en samenlevingen aanwezig zijn”, aldus Ghebreab.
Zelfrijdende auto’s
In de afgelopen jaren werd deze schaduwkant van AI in toenemende mate in de media en politiek onder de aandacht gebracht. Vaak werden de gevaren en valkuilen van zelfdenkende en -lerende systemen breed uitgemeten. Zo ontdekten onderzoekers aan de Amerikaanse Universiteit Cornell in 2019 dat beeldherkenningssystemen van zelfrijdende auto’s mensen met een donkere huidskleur minder goed herkenden dan mensen met een lichtere huidskleur. Dit zou kunnen leiden tot gevaarlijke situaties, omdat de systemen eerst een mens moeten kunnen herkennen voor het de auto een waarschuwing kan geven. Hierdoor zouden zwarte mensen eerder worden aangereden dan witte mensen.
Positieve kant
Toch is het volgens Ghebreab belangrijk dat ook naar de positieve invloed van AI wordt gekeken: “Nu heel veel mensen het hebben over de negatieve impact van AI, vind ik dat er ook tegenwicht nodig is. Er bestaat veel ongelijkheid in onze samenleving, maar ongelijkheid is niet altijd tastbaar. AI legt bepaalde zaken die in de maatschappij leven bloot en kwantificeert deze verschijnsels via data en modellen. Kijk maar naar Amazon: daar werd op basis van bestaande data ineens heel erg duidelijk dat mannen vaker promoties kregen. AI is dus ook een middel om goede dingen mee te doen. Je kan er discriminatie mee tegengaan omdat het blinde vlekken herkent.”
Bewustwording
Om er voor te zorgen dat mensen zich zowel van de negatieve als positieve aspecten van AI bewust zijn, is er volgens Ghebreab een betere informatievoorziening over AI nodig. “De technologie ontwikkelt zich dusdanig snel dat ik het echt noodzakelijk vind dat mensen de gevaren, maar ook de kansen van AI gaan leren kennen. En hier kunnen we niet vroeg genoeg mee beginnen. Twaalf jaar geleden ben ik op eigen initiatief jonge kinderen les gaan geven over AI. Het is een misverstand dat de techniek moeilijk te begrijpen is voor kinderen, je moet het gewoon toegankelijk uitleggen. Het lesgeven over AI wordt met de dag belangrijker, omdat de systemen steeds slimmer worden en steeds vaker aanwezig zijn in de samenleving. AI hoort daarom wat mij betreft ook thuis in het curriculum, omdat het zowel negatieve als positieve invloed heeft op ons allemaal”, aldus Ghebreab.
Structureel anders
Volgens Klinge is het ook hoog tijd voor bewustwording in het wetenschappelijk onderzoek. “Elk onderzoek moet aandacht hebben voor sekse, gender en - breder - diversiteit. En daar ligt een belangrijke rol voor de overheid.” Van 2016 - 2020 financierde het ministerie van Volksgezondheid, Welzijn en Sport al het Kennisprogramma ‘Gender en Gezondheid’. “Het is logisch dat de eerste stap daarin is gezet in onderzoek naar gezondheid. Daarbij is bijvoorbeeld de invloed van biologische en genderverschillen redelijk makkelijk aan te tonen.” Maar volgens Klinge kan de overheid nog belangrijke stappen zetten. “Het voorbeeld van de Europese Commissie, die aandacht voor sekse, gender en diversiteit verplicht stelt om in aanmerking te komen voor financiering, zou voor OCW een voorbeeld kunnen zijn. In alle domeinen van onderzoek - van energie, klimaat, transport en ICT tot voedsel en veiligheid – is het van belang om die factoren mee te nemen. Bij sommige van die technische onderwerpen is het misschien minder makkelijk te zien wat de invloed van sekse of etniciteit is, maar de eindgebruiker is niet alleen maar de witte, jonge man. En je doet je onderzoek natuurlijk uiteindelijk voor de gebruiker.”