Impakt vun der Diversitéit op Trainingsdaten

Verschidde AI Trainingsdaten fir Inklusivitéit an Eliminatioun vu Bias

Kënschtlech Intelligenz a Big Data hunn d'Potenzial fir Léisunge fir global Problemer ze fannen wärend lokal Themen prioritär sinn an d'Welt op vill déif Weeër transforméiert. AI bréngt Léisunge fir all - an an all Astellungen, vun Haiser op Aarbechtsplazen. AI Computeren, mat Machine Learning Training, kënnen intelligent Verhalen a Gespréicher op eng automatiséiert awer personaliséiert Manéier simuléieren.

Wéi och ëmmer, AI steet mat engem Inklusiounsproblem an ass dacks partizipéiert. Glécklecherweis konzentréieren op kënschtlech Intelligenz Ethik kënne méi nei Méiglechkeeten a Saache Diversifikatioun an Inklusioun ubidden andeems Dir onbewosst Bias duerch verschidden Trainingsdaten eliminéiert.

Wichtegkeet vun Diversitéit an AI Trainingsdaten

Ai Training daten Diversitéit Diversitéit a Qualitéit vun Trainingsdaten si verbonne well een deen aneren beaflosst an d'Resultat vun der AI Léisung beaflosst. Den Erfolleg vun der AI Léisung hänkt vun der divers Donnéeën et gëtt trainéiert op. Date Diversitéit verhënnert datt d'AI iwwerfittingt - dat heescht datt de Modell nëmmen aus den Daten benotzt oder léiert fir ze trainéieren. Mat Iwwerfitting kann den AI Modell keng Resultater liwweren wann se op Daten getest ginn déi net am Training benotzt ginn.

Den aktuellen Zoustand vun AI Training Donnéeën

D'Ongläichheet oder de Mangel u Diversitéit an Daten géif zu ongerecht, onetheschen an net-inklusiven AI-Léisungen féieren, déi d'Diskriminéierung verdéiwen. Awer wéi a firwat ass Diversitéit an Daten mat AI Léisunge verbonnen?

Ongläiche Representatioun vun alle Klassen féiert zu falscher Identifikatioun vu Gesiichter - ee wichtege Fall ass Google Fotoen déi eng schwaarz Koppel als "Gorillaen" klasséiert hunn. A Meta freet e Benotzer, deen e Video vu schwaarze Männer kuckt, ob de Benotzer wéilt "weider Videoe vu Primaten kucken."

Zum Beispill, ongenau oder falsch Klassifikatioun vun ethneschen oder rassistesche Minoritéiten, besonnesch an Chatbots, kéint zu Viruerteeler an AI Trainingssystemer féieren. Laut dem 2019 Bericht iwwer Diskriminéierend Systemer - Geschlecht, Rass, Kraaft an AI, méi wéi 80% vun den Enseignanten vun AI si Männer; Fraen AI Fuerscher op FB bilden nëmmen 15% an 10% op Google.

Den Impakt vun Diverse Trainingsdaten op AI Leeschtung

Impakt vun Diversitéit op Training Daten Spezifesch Gruppen a Communautéiten aus der Datevertriedung auslassen kann zu schiefen Algorithmen féieren.

Datebias gëtt dacks zoufälleg an d'Datensystemer agefouert - andeems verschidde Rennen oder Gruppen ënnerprobéieren. Wann Gesiichtserkennungssystemer op verschidde Gesiichter trainéiert ginn, hëlleft et dem Modell spezifesch Features z'identifizéieren, wéi d'Positioun vu Gesiichtsorganer a Faarfvariatioune.

En anert Resultat fir eng onbalancéiert Frequenz vun Etiketten ze hunn ass datt de System eng Minoritéit als Anomalie kéint betruechten wann et ënner Drock gesat gëtt fir en Ausgang bannent kuerzer Zäit ze produzéieren.

Loosst eis Är AI Trainingsdatenfuerderung haut diskutéieren.

Diversitéit erreechen an AI Trainingsdaten

Op der anerer Säit ass eng divers Datasetze generéieren och eng Erausfuerderung. De pure Mangel un Daten iwwer bestëmmte Klassen kéint zu Ënnerrepresentatioun féieren. Et kann ofgeschaaft ginn andeems d'AI Entwéckler Teams méi divers mat Respekt u Fäegkeeten, Ethnie, Rass, Geschlecht, Disziplin a méi maachen. Ausserdeem, Den ideale Wee fir Datendiversitéitsprobleemer an AI unzegoen ass et aus dem Wuert ze konfrontéieren anstatt ze probéieren ze fixéieren wat gemaach ass - Diversitéit ze infuséieren an der Datesammlung an der Curatiounsstadium.

Onofhängeg vun der Hype ronderëm AI, et hänkt nach ëmmer vun den Daten gesammelt, ausgewielt an trainéiert vu Mënschen. Déi gebierteg Bias bei Mënschen reflektéiert an den Daten, déi vun hinnen gesammelt ginn, an dës onbewosst Bias kräizt och an d'ML Modeller. 

Schrëtt fir verschidde Trainingsdaten ze sammelen an ze curéieren

Trainingsdaten Diversitéit Inklusioun

Daten Diversitéit kann erreecht ginn duerch:

  • Füügt nodenklech méi Donnéeën vun ënnerrepresentéierte Klassen un an exponéiert Är Modeller op variéiert Datepunkte. 
  • Andeems Dir Daten aus verschiddenen Datequellen sammelt. 
  • Duerch Datenvergréisserung oder kënschtlech manipuléiert Datesätz fir nei Datepunkte z'erhéijen / z'ënnerscheeden ënnerscheet vun den originelle Datepunkte. 
  • Wann Dir Bewerber fir den AI Entwécklungsprozess astellt, läscht all Job-irrelevant Informatioun aus der Uwendung. 
  • D'Verbesserung vun der Transparenz a Verantwortung duerch d'Verbesserung vun der Dokumentatioun vun der Entwécklung an der Evaluatioun vu Modeller. 
  • Aféierung Reglementer Diversitéit ze bauen an Inklusivitéit an AI Systemer aus dem Basisniveau. Verschidde Regierungen hunn Richtlinnen entwéckelt fir Diversitéit ze garantéieren an AI Bias ze reduzéieren déi ongerecht Resultater liwwere kënnen. 

[Lies och: Léiert méi iwwer AI Training Data Collection Prozess ]

Konklusioun

De Moment sinn nëmmen e puer grouss Tech Firmen a Léierzentren exklusiv an der Entwécklung vun AI Léisungen involvéiert. Dës Elite-Raim sinn an Ausgrenzung, Diskriminatioun a Viraussetzung geprägt. Wéi och ëmmer, dëst sinn d'Raim wou AI entwéckelt gëtt, an d'Logik hannert dësen fortgeschratten AI Systemer ass voll mat der selwechter Bias, Diskriminatioun an Ausgrenzung vun den ënnerrepresentéierte Gruppen. 

Beim Diskussioun iwwer Diversitéit an Net-Diskriminéierung ass et wichteg d'Leit ze froen déi se profitéiert an déi et schueden. Mir sollten och kucken wiem et en Nodeel stellt - andeems d'Iddi vun enger "normaler" Persoun forcéiert, kéint AI potenziell "aner" a Gefor bréngen. 

D'Diversitéit an AI Daten ze diskutéieren ouni d'Muechtverhältnisser, d'Gläichheet an d'Gerechtegkeet unzeerkennen wäert net dat gréissert Bild weisen. Fir den Ëmfang vun der Diversitéit an AI Trainingsdaten voll ze verstoen a wéi d'Mënschen an AI dës Kris zesumme kënne reduzéieren, d'Ingenieure bei Shaip kontaktéieren. Mir hunn divers AI Ingenieuren déi dynamesch an divers Donnéeën fir Är AI Léisungen ubidden. 

Sozial Share