AI Algorithms Are Racist And Sexist

, , 1 Comment

Jaaaaa!

De Deugridders hebben machine learning ontdekt.

En je raadt het al: die algoritmes zijn vreselijk racistisch en seksistisch.

En dat komt natuurlijk allemaal door onszelf, want wij zijn racistisch en seksistisch.

The Guardian: AI programs exhibit racial and gender biases, research reveals.

Zullen we er samen in duiken?

An artificial intelligence tool that has revolutionised the ability of computers to interpret everyday language has been shown to exhibit striking gender and racial biases.The findings raise the spectre of existing social inequalities and prejudices being reinforced in new and unpredictable ways as an increasing number of decisions affecting our everyday lives are ceded to automatons.

En we gaan los.

However, as machines are getting closer to acquiring human-like language abilities, they are also absorbing the deeply ingrained biases concealed within the patterns of language use, the latest research reveals. Joanna Bryson, a computer scientist at the University of Bath and a co-author, said: “A lot of people are saying this is showing that AI is prejudiced. No. This is showing we’re prejudiced and that AI is learning it.” But Bryson warned that AI has the potential to reinforce existing biases because, unlike humans, algorithms may be unequipped to consciously counteract learned biases. “A danger would be if you had an AI system that didn’t have an explicit part that was driven by moral ideas, that would be bad,” she said.

Free Speech Is Hate Speech

Let op: we praten over een morele automaton.

Alsof je broodrooster je brood niet te “wit” moet roosteren, maar voldoende geblakerd.

Anders is dat kwetsend voor gekleurde mensen.

For instance, in the mathematical “language space”, words for flowers are clustered closer to words linked to pleasantness, while words for insects are closer to words linked to unpleasantness, reflecting common views on the relative merits of insects versus flowers.

Dit is dus heel irritant voor een grote insectenliefhebber.
En vreselijk kwetsend voor mensen die allergisch zijn voor bloemen.

The latest paper shows that some more troubling implicit biases seen in human psychology experiments are also readily acquired by algorithms. The words “female” and “woman” were more closely associated with arts and humanities occupations and with the home, while “male” and “man” were closer to maths and engineering professions. And the AI system was more likely to associate European American names with pleasant words such as “gift” or “happy”, while African American names were more commonly associated with unpleasant words.

Even opletten?

AI draait vooral op input. Je spreekt dingen, je typt dingen en je krijgt suggesties.

Als je een geschiedenis bewaart, dan “went” dat algoritme aan je zoekopdrachten.

“Pizza bestellen” betekent altijd <x>.

En “Chinees bestellen” betekent altijd <y>.

Want dat zijn jouw voorkeuren.

Dit paper is ook afhankelijk van input.

Waar hebben ze naar gekeken, wat was de dataset, hoe etc.

Als je een AI loslaat op een groot forum in India?

Dan krijg je allerlei zegeningen en roze kleuren en dans en zang etc.

Als je een AI loslaat op de Facebook gebruikers in Staphorst?

Krijg je hele andere dingen.

Hal 9000 transparent

These biases can have a profound impact on human behaviour. One previous study showed that an identical CV is 50% more likely to result in an interview invitation if the candidate’s name is European American than if it is African American. The latest results suggest that algorithms, unless explicitly programmed to address this, will be riddled with the same social prejudices.

In dit “voorbeeld” achten de onderzoekers het dan waarschijnlijk dat een bot, een AI, ooit verantwoordelijk wordt voor het personeelsbeleid van grote bedrijven.

Tijd voor de hardcore Deugridder.

Sandra Wachter, a researcher in data ethics and algorithms at the University of Oxford, said: “The world is biased, the historical data is biased, hence it is not surprising that we receive biased results.”

Data ethics?
Jawel want ook nullen en enen moeten Deugen met een hoofdletter D.

De wereld is racistisch, seksistisch, gemeen, vals, ongevoelig, vooringenomen en verderfelijk.

Maar dat kunnen we digitaal corrigeren.

Rather than algorithms representing a threat, they could present an opportunity to address bias and counteract it where appropriate, she added. “At least with algorithms, we can potentially know when the algorithm is biased,” she said. “Humans, for example, could lie about the reasons they did not hire someone. In contrast, we do not expect algorithms to lie or deceive us.”

Precies. De wereld en mensheid mag dan waardeloos zijn.

Onze algoritmes?

Die zijn vreselijk aan het deugen.

Ik Deug

Laten we hier eens ons gezonde verstand op loslaten. Een simpel voorbeeld: ik heb een AI, in een cloud ergens waar ik tegen kan praten. Ik wil Guardians of the Galaxy zien. In die film, speelt Zoey Saldana een sexy, buitenaardse assassin die Gamora heet. Ik ben dat echter allemaal vergeten, het is tijden geleden dat ik die film heb gezien. Dus ik zeg tegen mijn AI: “die film met dat sexy groene wijf en die pratende boom”.

Wat ik dan wil is “Do you mean, Guardians of the Galaxy”?

En dan zeg ik: “play Guardians of the Galaxy, living room screen, sound medium”.

En klaar.

Ik wil niet, ik herhaal niet, dat mijn AI dan meteen gaat huilen.

Ik zit namelijk niet te wachten op een heel debat met de fucking AI, zo van…

Wijf is een negatieve manier om vrouwen te omschrijven.

Sorry.

Daarnaast wordt “groen” vooral gebruikt om iemand te omschrijven met weinig ervaring. Ben je op zoek naar minderjarige vrouwen?

Nee, ik bedoel huidskleur, groene huidskleur.

Selecties op huidskleur zijn een vorm van etnisch profileren. Ik ping nu het Meldpunt Discriminatie.

Reset Button

However, Wachter said the question of how to eliminate inappropriate bias from algorithms designed to understand language, without stripping away their powers of interpretation, would be challenging. “We can, in principle, build systems that detect biased decision-making, and then act on it,” said Wachter, who along with others has called for an AI watchdog to be established. “This is a very complicated task, but it is a responsibility that we as society should not shy away from.”

Deugridders moeten echt weg blijven van code, syntax, software en alles wat daarmee samenhangt.

Share