DALL-E Mini is geobsedeerd door vrouwen in Saris. Niemand weet waarom


Door AI gegenereerde afbeeldingen van vrouwen die sari's dragen

De enige echte grenzen naar DALL-E Mini zijn de creativiteit van je eigen prompts en zijn griezelige penseelvoering. De voor iedereen toegankelijke AI internet beeldgenerator kan wazige, verwrongen, smeltende benaderingen oproepen van elk scenario dat je maar kunt bedenken. Seinfeld-nachtmerries? Jij ik snap het. Rechtszaal schetsen van dieren, voertuigenen opmerkelijke mensen in wisselend combinaties? Makkelijk. nooit eerder gezien horror monster uit de geest van de hersenloze. Natuurlijk, wat dan ook.

Maar geef DALL-E Mini letterlijk niets, en het onthult snel de grenzen van zijn eigen ‘fantasieën’. Zonder richting of begeleiding lijkt het AI-model vast te lopen. met eenAbsoluut geen prompt, het programma zullen zonder twijfel geef je een afbeelding terug van een vrouw in een sari (een kledingstuk dat vaak in Zuid-Azië wordt gedragen.)

Zelfs de ontwikkelaar van de tool, Boris Dayma, weet niet precies waarom rapporteren van Rest van de wereld. “Het is best interessant en ik weet niet zeker waarom het gebeurt”, zei hij tegen de Rest van de Wereld over het fenomeen.

raster van 9 AI-gegenereerde afbeeldingen

Wat is DALL-E mini?

DALL-E mini is geïnspireerd op DALL-E 2, een krachtige beeldgenerator van OpenAI. De foto’s die DALL-E 2 maakt zijn veel realistischer dan degene die “mini” kan maken, maar de wisselwerking is dat het te veel rekenkracht vereist om door zomaar een oude internetgebruiker te worden rondgegooid. Er is een beperkte capaciteit en een wachtlijst.

Dus Dayma, niet aangesloten bij OpenAI, koos ervoor om zijn eigen, minder exclusieve versie te maken die in juli 2021 werd gelanceerd. de afgelopen weken is het enorm populair geworden. Het programma verwerkt elke dag ongeveer 5 miljoen verzoeken, vertelde Dayma aan Rest of World. Vanaf maandag DALL-E Mini werd hernoemd kleurpotlood en verschoven naar een nieuwe domeinnaam, op aandringen van OpenAI.

Net als elk ander model voor kunstmatige intelligentie, DALL-E Mini/Craiyon creëert outputs op basis van trainingsinputs. In het geval van Mini werd het programma getraind op een dieet van 15 miljoen afbeeldings- en bijschriftparen en nog eens 14 miljoen afbeeldingen, plus de chaos van het open internet.

Uit de rest van de wereld:

Het DALL E mini-model is ontwikkeld op basis van drie belangrijke datasets: Conceptuele bijschriften datasetdat 3 miljoen afbeeldings- en bijschriftparen bevat; Conceptuele 12Mdat 12 miljoen afbeeldings- en bijschriftparen bevat, en The OpenAI’s corpus van ongeveer 15 miljoen afbeeldingen. Dayma en DALL·E mini-medebedenker Pedro Cuenca merkten op dat hun model ook is getraind met behulp van ongefilterde gegevens op internet, wat het opent voor onbekende en onverklaarbare vooroordelen in datasets die kunnen doorsijpelen naar modellen voor het genereren van afbeeldingen.

En deze onderliggende gegevens hebben vrijwel zeker iets te maken met het sari-fenomeen. De stand van zaken van de sari, zo u wilt.

Raster van negen door AI gegenereerde afbeeldingen

Waarom loopt de DALL-E mini vast op Saris?

Dayma suggereerde dat afbeeldingen van Zuid-Aziatische vrouwen in sari’s mogelijk sterk vertegenwoordigd zijn in die originele fotosets die DALL-E M voedenini. En dat de gril ook iets te maken zou kunnen hebben met de lengte van de bijschriften, omdat de AI prompts van nul tekens zou kunnen associëren met korte afbeeldingsbeschrijvingen.

Michael Cook, een AI-onderzoeker aan de Queen Mary University in Londen, vertelde de Rest van de Wereld echter dat hij niet zo zeker was van de theorie van oververtegenwoordiging. “Meestal hebben machinale leersystemen het omgekeerde probleem: ze bevatten eigenlijk niet genoeg foto’s van niet-blanke mensen”, zei hij.

In plaats daarvan denkt Cook dat de oorsprong zou kunnen liggen in een taalvooroordeel van het gegevensfilterproces. “Een ding dat bij me opkwam tijdens het lezen, is dat veel van deze datasets tekst verwijderen die niet Engels is,” zei hij. Afbeeldingsbijschriften die bijvoorbeeld Hindi bevatten, worden mogelijk verwijderd, waardoor afbeeldingen zonder ondersteunende, verklarende tekst of labels vrij zweven in de oorspronkelijke AI-soep, legde hij uit.

Tot nu toe zijn noch de ideeën van Cook noch Dayma bewezen, maar beide zijn goede voorbeelden van het soort problemen dat veel voorkomt bij AI. PGeprogrammeerd en getraind door mensen, kunstmatige intelligentie is slechts zo onfeilbaar als zijn makers. Als je een afbeeldingsgenerator een koekje geeft, spuugt het een heleboel koekjes uit. En omdat we in de hel leven, draagt ​​AI de ongelukkige last van: menselijke vooroordelen en stereotypen erbij.

Hoe leuk het ook mag zijn om te denken dat het beeld van de “vrouw in sari” een soort oerboodschap is uit de diepten van het ongebreidelde internet, de realiteit is dat het waarschijnlijk het bijproduct is van een gegevenstoeval of gewoon oude vooringenomenheid. De vrouw in de sari is een mysterie, maar de… bestaand probleem van AI niet.

.



Source link

Leave a Comment