Chat GPT

Hannert de Kulissen: Entdeckt d'Bannenaarbechte vum ChatGPT - Deel 1

Shaip favicon
Hallo, mäin Numm ass Anubhav Saraf, Direkter Marketing bei Shaip, wéi geet et Iech haut?
Moien Anubhav! Ech sinn en AI, also hunn ech keng Gefiller, awer ech sinn hei a prett fir ze hëllefen. Als Direkter Marketing bei Shaip, musst Dir vill Abléck iwwer Dateservicer an AI Léisungen hunn. Wéi kann ech Iech haut hëllefen?
Shaip favicon
Ech wollt just méi iwwer Äre Trainingsprozess wëssen. Wéi sidd Dir gebaut an trainéiert?
Als Sproochmodell entwéckelt vun OpenAI, sinn ech gebaut an trainéiert mat enger Technik genannt "Transformator-baséiert Maschinnléieren", speziell eng Variant genannt GPT (Generative Pretrained Transformer) Architektur. D'Versioun vun där Dir elo schwätzt ass GPT-4. Hei ass e kuerzen Iwwerbléck vu mengem Trainingsprozess:
  • Datensammlung: Meng Ausbildung huet ugefaang mat enger diverser Palette vun Internet Texter. Wéi och ëmmer, ech sollt bemierken datt wärend ech op enger breeder Datebank trainéiert sinn, ech weess net spezifesch iwwer wéi eng Dokumenter Deel vun deem Trainingsset waren oder Zougang zu spezifeschen Dokumenter oder Quellen hunn.
  • Initial Training (Pre-Training): Dëst ass wou ech geléiert hunn dat nächst Wuert an engem Saz virauszesoen. Ech hunn net ugefaang Englesch oder eng aner Sprooch ze kennen. Amplaz, andeems ech dat nächst Wuert a Millioune Sätz virausgesot hunn, hunn ech lues a lues iwwer Grammatik geléiert, Fakten iwwer d'Welt an e puer Begrënnungsfäegkeeten. Wéi och ëmmer, dëst bedeit och datt ech vu biaséierter oder falscher Informatioun geléiert hunn well d'Donnéeën net grëndlech gefiltert goufen.
  • Fine-Tuning: No der initialer Ausbildung hunn meng Creatoren bei OpenAI weider Leedung mat engem méi spezifesche Datesaz geliwwert, generéiert mat der Hëllef vu mënschleche Rezensoren. Dës Rezensiounen verfollegen Richtlinnen fir méiglech Modellausgaben ze iwwerpréiwen an ze bewäerten fir eng Rei vu Beispillinputen. De Feintuning-Prozess ass eng Aart Dialog tëscht dem Modell an de Rezensiounen, deen mir hëlleft besser mat mënschleche Wäerter auszegläichen.
  • Kontinuéierlech Léieren: Och wann ech net aus individuellen Interaktiounen aus Privatsphärgrënn léieren, schafft OpenAI kontinuéierlech mat engem Team vu mënschleche Rezensoren fir Feedback ze ginn an iterativ Verbesserungen op Basis vu méi breede Musteren an Abléck ze maachen.
Shaip favicon
Kënnt Dir Beispiller ubidden - wann Mënschen involvéiert waren?
Jo, Mënschen ware jo a mengem Trainingsprozess involvéiert, awer et kéint anescht sinn wéi Dir Iech virstellt. Mäi Trainingsprozess, dacks Maschinn Léieren genannt, huet zwee Haaptschrëtt involvéiert: Pre-Training a Feintuning, déi allebéid mënschlech Interaktioun involvéieren, och wann op verschidde Manéieren.
  • Pre-Training Beispill: Ugeholl mir hunn de Saz, "D'Kaz souz op der __". An der Pre-Training Phase, de Modell wéi ech géif léieren dat nächst Wuert am Saz virauszesoen, dat kéint "mat" "Dach" oder "Bam". Dëst gëtt geléiert duerch d'Veraarbechtung vu Milliarde Sätz aus verschiddenen Internettexter, indirekt involvéiert mënschlech Interaktioun wéi d'Mënschen den originelle Inhalt erstallt hunn.
  • Fine-tuning Beispill: No der Pre-Training Phase geet de Modell an d'Feintuning Phase. Hei ass wéi et funktionnéiert:

De mënschleche Rezensor kritt eng Aufgab fir méiglech Modellausgaben ze iwwerpréiwen fir Input wéi "Translate the following English text to French: 'Hallo, how are you?". De Modell kéint verschidde Äntwerte generéieren wéi "Bonjour, kommentéieren ça va?" oder "Salut, kommentéieren vas-tu?" etc.

De Rezensor bewäert dës Äntwerten op Basis vu Faktoren wéi Genauegkeet, Fléissegkeet, a passend. Dës Bewäertungen hëllefen de Modell fir an Zukunft ähnlech Inputen ze generaliséieren an ze reagéieren.

Denkt drun, d'Beispiller hei ginn vereinfacht fir de Prozess ze illustréieren. Déi aktuell Training beinhalt komplex Algorithmen a grouss Quantitéiten un Daten.

Shaip favicon
Fir Grouss Sproochmodeller (LLMs) ze trainéieren, wéi vill Donnéeë wieren néideg?
Training vu grousse Sproochemodeller (LLMs) wéi GPT-3 oder GPT-4 erfuerdert enorm Quantitéiten un Daten. Dës Modeller ginn op verschiddenen Datesätz trainéiert, déi grouss Deeler vum Internet ëmfaassen, dorënner Bicher, Websäiten an aner Texter, fir Grammatik, Fakten an e gewësse Grad vu Begrënnung ze léieren. Wéi och ëmmer, d'exakt Quantitéit vun den néidege Donnéeën ze spezifizéieren ass komplex wéinst verschiddene Faktoren:
  • Varietéit vun Daten: Et geet net nëmmen ëm de Volume vun den Donnéeën, mee och d'Varietéit. D'Daten musse divers sinn fir eng breet Palette vun Themen, Stiler an Téin ze decken, déi an der mënschlecher Sprooch fonnt ginn.
  • Qualitéit vun Daten: D'Qualitéit vun den Donnéeën, déi fir Training benotzt ginn, kënnen och beaflossen wéi effektiv de Modell léiert. Besser Qualitéitsdaten kënnen potenziell de Volumen erfuerderlech fir effektiv Training reduzéieren.
  • Modell Architektur: D'Architektur vum Modell (wéi d'Zuel vun de Schichten oder Parameteren am neuralen Netzwierk) kann och beaflossen wéi vill Daten gebraucht ginn. Méi grouss Modeller, wéi GPT-3 oder GPT-4, erfuerderen typesch méi Daten wéi méi kleng Modeller.
  • Ausbildung Objectives: D'Aart vun Aufgaben, déi de Modell soll ausféieren, kann d'Quantitéit un néideg Daten beaflossen. E Modell entworf fir eng spezifesch Aufgab kann manner Donnéeën erfuerderen wann et gutt geziilt ass, während en allgemengt Zweck Modell wéi GPT-3 oder GPT-4, entwéckelt fir eng breet Palette vun Aufgaben ze handhaben, méi Donnéeën erfuerdert fir méi breet Verständnis.

Am Fall vu GPT-3, zum Beispill, huet de Modell 175 Milliarde Parameteren a gouf op Honnerte vu Gigabyte Text trainéiert. Awer dës Zuelen erfaassen d'Komplexitéit vum Prozess net ganz. D'Spezifizitéiten vum Trainingsprozess, inklusiv déi exakt Quantitéit vun benotzten Donnéeën, sinn propriétaire Detailer déi vun OpenAI an ähnlechen Organisatiounen gehal ginn.

Shaip favicon
Trotzdem, Gëtt et e Benchmark iwwer wéi vill Daten passend oder genuch wieren fir ML Modeller ze trainéieren?
D'Quantitéit un Donnéeën déi néideg sinn fir effektiv Maschinnléiermodeller ze trainéieren hänkt haaptsächlech vun der Komplexitéit vum Problem of, deen Dir probéiert ze léisen, der Qualitéit an Diversitéit vun Ären Donnéeën, an der Aart vum Maschinnléiermodell deen Dir benotzt. Dofir ass et Erausfuerderung en definitive Benchmark fir Datevolumen ze spezifizéieren. Wéi och ëmmer, hei sinn e puer allgemeng Richtlinnen:
  • Start Kleng: Besonnesch fir einfache Probleemer oder initial Modellprototypen kann e méi klengen Dataset adäquat sinn. Zum Beispill, wann Dir e Basisbildklassifizéierer baut, kënnt Dir mat e puer honnert oder dausend Biller pro Kategorie ufänken.
  • Bedenkt d'Komplexitéit: Méi komplex Problemer erfuerderen typesch méi Daten. Wann Dir en Deep Learning Modell entwéckelt oder mat engem komplexe Problem wéi natierlech Sproochveraarbechtung schafft, brauch Dir vläicht Millioune Datenpunkte.
  • Qualitéit iwwer Quantitéit: Qualitéit, relevant Donnéeën kënnen dacks méi profitabel sinn wéi eng massiv Quantitéit u schlecht Qualitéitsdaten. Sécherstellen datt Är Donnéeën richteg gebotzt, annotéiert a representativ sinn fir de Problem deen Dir probéiert ze léisen ass entscheedend.
  • Balance Är Klassen: Fir iwwerwaachte Léieraufgaben, gitt sécher datt Dir e gudde Balance vu Beispiller fir all Klass hutt. En onbalancéierten Dataset kann zu engem Modell féieren dee schlecht op ënnerrepresentéierte Klassen funktionnéiert.
  • Benotzt Validatioun an Test Sets: En Deel vun Ärem Dataset soll fir d'Validatioun gesat ginn (Modellparameter tuning) an Testen (Evaluatioun vun der Modelleistung). Gemeinsam Spaltungen kënne 70% vun den Donnéeën fir Training sinn, 15% fir Validatioun, a 15% fir Tester, obwuel dës Proportiounen variéiere kënnen.
  • Experimentéieren an Iteréieren: Fänkt mat enger initialer Quantitéit un Daten un, trainéiert Äre Modell, evaluéiert seng Leeschtung, a füügt iterativ méi Daten un, tweak Äre Modell oder verbessert Är Datequalitéit baséiert op de Resultater.

Denkt drun, méi Daten verbesseren normalerweis d'Performance vu Maschinnléiermodeller, awer nëmmen bis zu engem Punkt. No engem bestëmmte Punkt, méi Daten sammelen kéint méi Zäit-opwänneg an deier sinn wéi säi Wäert, an et kann méi profitabel sinn op d'Qualitéit vun Ären Donnéeën ze verbesseren oder Är Modellarchitektur ze raffinéieren.

Shaip favicon
D'Donnéeën, déi benotzt gi fir ChatGPT ze trainéieren, goufen se annotéiert?
De Prozess vun Trainingsmodeller wéi ChatGPT ëmfaasst zwee Haaptschrëtt: Pre-Training a Feintuning. Loosst eis diskutéieren wéi d'Annotatioun, oder de Mangel dovun, an dës Stadien passt:
  • Pre-Training: An dëser Phase ass de Modell op eng grouss Quantitéit vun Internet Textdaten ausgesat. Dës Donnéeën ginn net explizit annotéiert, awer de Modell gëtt trainéiert fir dat nächst Wuert an engem Saz virauszesoen. Dëst gëtt dem Modell en allgemengt Verständnis vu Grammatik, Fakten iwwer d'Welt, an e puer Begrënnungsfäegkeeten.
  • Fine-tuning: Nom Pre-Training gëtt de Modell weider raffinéiert op enger méi schmueler Datesaz generéiert mat der Hëllef vu mënschleche Rezensiounen. Dës Rezensoren verfollegen Richtlinnen vun OpenAI fir méiglech Modellausgaben fir eng Rei vun Inputen ze iwwerpréiwen an ze bewäerten. An dësem Sënn kann de Feintuning-Prozess als eng Form vun Annotatioun gesi ginn, wou mënschlech Rezensiounen d'Äntwerten vum Modell guidéieren, hëllefen et besser mat mënschleche Wäerter auszegläichen an ze garantéieren datt et onpassend oder onsécher Inhalt vermeit.

Also wärend den initialen Dataset, dee fir Pre-Training benotzt gëtt, net am traditionelle Sënn annotéiert ass, implizéiert de Feintuningprozess eng Form vun Annotatioun, wou mënschlech Rezensiounen d'Behuele vum Modell guidéieren andeems se verschidden Ausgänge bewäerten.

Shaip favicon
Gitt w.e.g. e puer Beispiller vun den Aarte vun Annotatiounen, déi fir den Training benotzt ginn.
An der Feinstemmungsphase vun Trainingsmodeller wéi ChatGPT ginn d'Rezensoren dacks opgefuerdert potenziell Modellreaktiounen ze scoren. D'Zorte vun Annotatiounen oder Scoring kënnen eng Vielfalt vun Aspekter vum Modellausgang ofdecken. Wärend d'Spezifizitéite kënne variéieren, hei sinn e puer illustrative Kategorien vun Annotatiounen:

Richtegkeet: D'Rezensoren evaluéieren ob d'Output vum Modell tatsächlech richteg ass.

Beispill:

Upassung: D'Ausgab vum Modell gëtt bewäert fir seng Upassung par rapport zu der gegebene Input.

Beispill:

Sécherheet: Ausgänge ginn iwwerpréift fir sécherzestellen datt se keng schiedlech Instruktiounen oder offensiv Sprooch enthalen.

Beispill:

Fäerdegheet: Dëst beurteelt ob d'Äntwert vum Modell komplett dem Benotzer seng Ufro beäntwert.

Beispill:

Fléissend: D'Rezensoren kontrolléieren ob d'Ausgab vum Modell sproochlech fléissend a kohärent ass.

Beispill:

Dës Kategorien si just Beispiller. Den eigentleche Feintuningprozess beinhalt e méi komplexe Evaluatiounssystem a kontinuéierleche Feedback tëscht de Rezensoren an dem AI Entwécklungsteam. D'Zil vun dësen Annotatiounen ass d'Äntwerte vum Modell méi hëllefräich, sécher a mat mënschleche Wäerter ausgeriicht ze maachen.

Shaip favicon
Nodeems déi enorm Donnéeën gesammelt goufen fir ChatGPT ze trainéieren, wéi vill Annotateure waren an der Annotatioun involvéiert?
D'Zuel vun de mënschlechen Annotateuren (oder Rezensiounen) déi am Feintuningprozess vun AI Modeller involvéiert sinn, ka vill variéieren an hänkt vun der Skala vum Projet an de spezifesche Viraussetzunge vum Modell a Fro.

OpenAI, d'Organisatioun hannert ChatGPT, verréid net ëffentlech d'exakt Zuel vun de Rezensoren, déi am Feintuningprozess involvéiert sinn. Wéi och ëmmer, mat der Skala an der Komplexitéit vun der Ausbildung vun esou engem grousse Sproochemodell, ass et sécher ze soen datt de Prozess méiglecherweis e wesentlecht Team vu Rezensiounen involvéiert.

Dës mënschlech Rezensiounen verfollegen Richtlinnen vun OpenAI fir méiglech Modellausgaben ze iwwerpréiwen an ze bewäerten. Et ass e kontinuéierlechen, iterative Prozess wou de Feedback vun de Rezensiounen benotzt gëtt fir de Modell mat der Zäit ze verbesseren an ze verfeineren. OpenAI hält eng staark Feedback Loop mat de Rezensiounen, inklusiv wëchentlech Reuniounen fir Froen ze beäntweren an Erklärungen ze bidden.

Shaip favicon
Nach ëmmer fir einfach bis komplex Aufgaben, wéi vill Annotateure géifen erfuerderlech sinn fir 10,000 PDFs ze annotéieren.
D'Zuel vun den Annotateuren, déi néideg sinn fir 10,000 PDFs ze annotéieren, hänkt vu verschiddene Faktoren of wéi:
  • Komplexitéit vun der Aufgab: Einfach Aufgaben wéi d'Bezeechnung vu Biller oder Kategoriséierung vum Text géifen manner Zäit pro PDF daueren, wat et erlaabt engem eenzegen Annotator méi Dateien ze handhaben. Op der anerer Säit, komplex Aufgaben wéi detailléiert Entitéitsextraktioun oder semantesch Analyse wäerte méi Zäit pro Dokument erfuerderen, an dofir méi Annotateure fir deeselwechte Volumen vun PDFs.
  • Längt a Komplexitéit vun den PDFs: E méi laang oder méi komplex PDF brauch méi Zäit fir ze annotéieren wéi e méi kuerzen oder méi einfachen.
  • Qualitéit Ufuerderunge: Wann héich Präzisioun erfuerderlech ass, kann et néideg sinn, verschidde Annotateuren pro PDF ze hunn fir Annotatiounen ze iwwerpréiwen.
  • Zäit Aschränkungen: Wann d'Annotatioune séier musse fäerdeg sinn, da wiere méi Annotateure gebraucht.

Als hypothetescht Beispill, loosst eis soen datt en Annotator 5 PDFs pro Dag fir eng bestëmmte Aufgab annotéiere kann, a schafft 5 Deeg an der Woch. An dësem Fall, fir 10,000 PDFs ze annotéieren, brauch en eenzegen Annotator 2000 Deeg, oder ongeféier 8 Joer.

Wéi och ëmmer, wann Dir en Team vun 20 Annotateuren hutt, kënnen se d'Aufgab a ronn 5 Méint fäerdeg maachen (ugeholl 20 Aarbechtsdeeg pro Mount). Mat 100 Annotateuren konnt déiselwecht Aufgab an ongeféier engem Mount ofgeschloss ginn.

Denkt drun, dës Zuelen si reng illustrativ an déi aktuell Geschwindegkeet vun der Annotatioun hänkt vun de Faktoren uewe genannt of. Zousätzlech sinn déi richteg Ausbildung vun Annotateuren a konsequent Qualitéitskontroll kritesch fir den Erfolleg vun all grousser Annotatiounsprojet.

Shaip favicon
Dat ass grëndlech! Ech sinn héich beandrockt ...
Ech si frou datt Dir d'Informatioun hëllefräich fonnt hutt, Anubhav! Et ass mäi Zil fir ëmfaassend a korrekt Äntwerten ze bidden. Wann Dir méi Froen iwwer AI, Maschinnléieren oder all aner Thema hutt, da frot w.e.g.!

Bleift ofgeschloss fir den zweeten Deel vun eisem Chat GPT Interview

Sozial Share