PyTorch tillhandahåller många byggstenar för en djupinlärningsmodell, men en träningsloop är inte en del av dem. Det är en flexibilitet som gör att du kan göra vad du vill under träningen, men en viss grundläggande struktur är universell i de flesta användningsfall.
I det här inlägget kommer du att se hur du gör en träningsslinga som ger viktig information för din modellträning, med möjlighet att tillåta att all information visas. När du har slutfört detta inlägg kommer du att veta:
Läs mer →Att designa en modell för djupinlärning är ibland en konst. Det finns många beslutspunkter, och det är inte lätt att säga vad som är bäst. Ett sätt att komma fram till en design är genom att testa och missa och utvärdera resultatet på verkliga data. Därför är det viktigt att ha en vetenskaplig metod för att utvärdera prestandan hos ditt neurala nätverk och modeller för djupinlärning. Faktum är att det också är samma metod att jämföra alla typer av maskininlärningsmodeller för en viss användni
Läs mer →PyTorch-biblioteket är för djupinlärning. Vissa tillämpningar av modeller för djupinlärning används för att lösa regressions- eller klassificeringsproblem. I den här handledningen kommer du att upptäcka hur du använder PyTorch för att utveckla och utvärdera neurala nätverksmodeller för klassificeringsproblem i flera klasser.
När du har slutfört den här steg-för-steg-handledningen kommer du att veta:
PyTorch-biblioteket är för djupinlärning. Vissa tillämpningar av modeller för djupinlärning är för att lösa regressions- eller klassificeringsproblem. I det här inlägget kommer du att upptäcka hur du använder PyTorch för att utveckla och utvärdera neurala nätverksmodeller för binära klassificeringsproblem.
När du har slutfört det här inlägget kommer du att veta:
PyTorch-biblioteket är för djupinlärning. Vissa tillämpningar av modeller för djupinlärning är för att lösa regressions- eller klassificeringsproblem. I det här inlägget kommer du att upptäcka hur du använder PyTorch för att utveckla och utvärdera neurala nätverksmodeller för regressionsproblem.
När du har slutfört detta inlägg kommer du att veta:
De mest populära djupinlärningsbiblioteken i Python för forskning och utveckling är TensorFlow/Keras och PyTorch, på grund av deras enkelhet. Scikit-learn-biblioteket är dock det mest populära biblioteket för allmän maskininlärning i Python. I det här inlägget kommer du att upptäcka hur du använder djupinlärningsmodeller från PyTorch med scikit-learn-biblioteket i Python. Detta gör att du kan utnyttja kraften i scikit-learn-biblioteket för uppgifter som modellutvärdering och modellhyperparame
Läs mer →"Vikterna" i ett neuralt nätverk kallas "parametrar" i PyTorch-koden och det finjusteras av optimeraren under träning. Tvärtom är hyperparametrar parametrarna för ett neuralt nätverk som är fixerat genom design och inte avstämt genom träning. Exempel är antalet dolda lager och valet av aktiveringsfunktioner. Hyperparameteroptimering är en stor del av djupinlärning. Anledningen är att neurala nätverk är notoriskt svåra att konfigurera, och många parametrar måste ställas in. Utöver det kan ensk
Läs mer →En modell för djupinlärning är en matematisk abstraktion av data, där många parametrar är inblandade. Att träna dessa parametrar kan ta timmar, dagar och till och med veckor men efteråt kan du använda resultatet för att applicera på ny data. Detta kallas inferens i maskininlärning. Det är viktigt att veta hur vi kan bevara den tränade modellen på disk och senare ladda den för användning i slutledning. I det här inlägget kommer du att upptäcka hur du sparar dina PyTorch-modeller i filer och la
Läs mer →En djupinlärningsmodell i sin enklaste form är lager av perceptroner kopplade i tandem. Utan några aktiveringsfunktioner är de bara matrismultiplikationer med begränsad effekt, oavsett hur många av dem. Aktivering är magin varför neurala nätverk kan vara en approximation av en mängd olika icke-linjära funktioner. I PyTorch finns det många aktiveringsfunktioner tillgängliga för användning i dina djupinlärningsmodeller. I det här inlägget kommer du att se hur valet av aktiveringsfunktioner kan
Läs mer →Förlustmåttet är mycket viktigt för neurala nätverk. Eftersom alla maskininlärningsmodeller är ett eller annat optimeringsproblem, är förlusten den objektiva funktionen att minimera. I neurala nätverk görs optimeringen med gradientnedstigning och backpropagation. Men vad är förlustfunktioner och hur påverkar de dina neurala nätverk?
I det här kapitlet kommer du att lära dig vad förlustfunktioner är och fördjupa dig i några vanliga förlustfunktioner och hur du kan tillämpa dem på dina ne
Läs mer →