Uvod u algoritam za poticanje gradijenta
Tehnika prelaska učenika s vikendom u jakog učenika naziva se poticanjem. Proces algoritma za povećanje gradijenta djeluje na ovoj teoriji izvršenja. Algoritam pojačavanja Ada može se prikazati kako bi se objasnio i lako razumio proces kroz koji se potiskivanje ubrizgava u skupove podataka.
Stablo odluke
Stablo odluka alat je za podršku presudi koji određuje odluke podrazumijevajući nalik na stablo i njihove vjerojatne posljedice, zajedno s ishodima mogućih događaja, troškovima resursa itd. Ova im tehnika omogućuje prikazivanje izjava o kontroli koje djeluju na uvjetne ishode.
Istraživačke operacije široko koriste ta stabla odlučivanja posebno u analizi odluka, također im omogućuju postizanje cilja i također su obožavani alat u strojnom učenju.
Algoritam AdaBoost
AdaBoost algoritam započinje pripremom stabla odluke u kojem se svakom promatranju dodjeljuje ekvivalentna težina. Nakon procjene primarnog stabla, povećavamo težine te interpretacije koje su složene za kategorizaciju i podređivanje utega onima koji su lako kategorizirani. Na temelju tih pretpostavljenih podataka razvijeno je drugo stablo. Ovdje je dizajn bolji kako bi se poboljšalo proročanstvo o primarnom stablu.
Zatim izračunajte grešku kategorizacije iz ovog inovativnog modela sakupljanja dva stabla i kultivirajte treće stablo da predvidi modificirane ostatke. Gornji postupak je ponovljen u nekoliko slučajeva. Promatranja koja nisu dobro definirana na prethodnim stablima određuju se pomoću naknadnih stabala. Predviđanja modela zaključnog sklapanja posljedično su predrasude figure predviđanja koja su završila prethodnim modelima stabala.
Trening GBM model
Za upućivanje gbm modela na R jeziku, GBM knjižnica mora biti instalirana i poziv toj instaliranoj biblioteci GBM-a iz poziva programa je instanciran. Također, potrebno je navesti potrebne argumente, u nastavku su navedeni ključni argumenti,
1. Formula
2. Distribucija varijabli odgovora
3. Promjena predviđanja
4. Varijabla odgovora
Uobičajene distribucije koje se koriste u GBM modelima su Bernoulli, Poisson, itd.
Napokon, očekuje se da će podaci i n.trees argumenti biti specificirani. Neplatištem će model gbm uzimati zdravih 100 stabala, što može ponuditi kvalitetnu aproksimaciju koncerta našeg gbm-a.
Uzorak Šifra # 1
install.packages ("gbm")
library(gbm)
GBM <- gbm( formula = response,
distribution = " bernoulli ",
data = train
n.trees = 3000)
Slijedi sljedeći korak koji je stvarni skup podataka podijeljen na podjelu podataka za vlak i test, a to se postiže funkcijom createDataPartition (). Ova vrsta dijeljenja bit će od velike pomoći u kasnijem dijelu za obuku ispitnog seta pomoću treniranog vlaka, a povrh toga koji se utvrđuju stvarnim predviđanjima za izvorne podatke.
Uzorak Šifra # 2
TRAIN <- read.csv("Train_dd.csv")
set.seed(77820)
intrain <- createDataPartition( y = Train$survived,
list = false )
Train <- Train(inTrain) Train <- Train(-inTrain)
Sljedeći korak je uvježbavanje gbm modela pomoću našeg trening programa. Iako su svi dodatni argumenti točno ono što je prijavljeno u gornjim odjeljcima. spominju se još dva dodatna argumenta - interakcija, dubina i skupljanje.
1. Dubina interakcije opisuje najveću dubinu svakog stabla
2. Mjerenje brzine intelekta postiže se upotrebom Shrinkage-a. ovdje se sve dodatne vrijednosti u stablima osnovnog učenika smanjuju pomoću ovog skupljanja.
Nadalje, ova tehnika omogućuje prikazivanje kontrolnih izjava koje djeluju na uvjetne rezultate. Istraživačke operacije široko koriste ta stabla odlučivanja posebno u analizi odluka. Također nam omogućuju postizanje cilja i također su obožavani alat u strojnom učenju.
GBM model Izlaz
Na izlazu modela GBM nalaze se detalji o ukupnom broju stabala koja su implicirana za izvršenje. Ovo će vam pomoći u predviđanju utjecaja varijable predviđanja na model, a tablica varijable važnosti i grafikon modela mogu se izvesti iz sažetke funkcije izlaza GBM.
Predvidite () metodu pomoću GBM modela
Dakle, za izradu predviđanja na vrhu ovdje unesenih podataka o GBM modelu kao i drugi modeli podrazumijeva se metoda predviđanja. Također, računanje ukupnog broja stabala odlučivanja mora se ručno spomenuti u dijelu argumenta metode.
Kod uzorka
predictions <- predict( object = simpleGBMmodel,
newdata = test,
n.trees = 1)
Poboljšanja modela GBM
Ograničenja stabla
- Značajno je da slabovidni polaznici obuhvaćaju vještinu, ali ostaju slabi.
Ponderirane nadogradnje
- Redoslijed dodavanja primjenjuje se na predviđanja svakog stabla
- Donacija svakog stabla u ovom iznosu treba biti masovna da bi se usporilo učenje algoritama. ovaj se postupak naziva skupljanjem.
Stohastički algoritam za jačanje gradijenta
Ovaj ekvivalentni dobitak može se koristiti za smanjenje udruženja s drveća.
Algoritam za jačanje stupnjeva penala
Parameterizirana stabla mogu biti ispunjena dodatnim ograničenjima, klasično stablo odluka ne može se koristiti kao slabi polaznici. Umjesto toga, koristi se prilagođeno pod nazivom regresijsko stablo koje ima numeričke vrijednosti u čvorovima listova.
Preporučeni članci
Ovo je vodič za algoritam za jačanje gradijenta. Ovdje razgovaramo o uvodu, stablu odluka, algoritmu AdaBoost, modelu GBM za obuku, poboljšanjima modela GBM zajedno s nekim uzorkom koda. Možete i proći naše druge predložene članke da biste saznali više -- Algoritam stabla odluke
- Algoritmi strojnog učenja
- XGBoost algoritam
- Algoritmi znanosti podataka
- C ++ algoritam | Primjeri C ++ algoritma
- Primjena Poissonove regresije u R