Ek Bilgiler
Last updated
Was this helpful?
Last updated
Was this helpful?
Çalışma alanı sayfanıza girin (dosyaların olduğu yer)
Alttaki komutu kopyalayın
Tekrar dosyaların olduğu yere gelin ve orada beliren workspace.tar.gz
dosyasını indirin
Alttaki komutu kopyalayın ve tek tek indirin
İndirdikten sonra dosyaları cat workspace.tar.gz.part.* > workspace.tar.gz
ile birleştirebilirsiniz
Her zaman yapılacak iş: Girişler ile ağırlıkları çarp, sabit değişken (sapma) ile topla ve aktivasyon uygula!
Aktivasyon fonksiyonu kullanılmayan bir sinir ağı sınırlı öğrenme gücüne sahip bir doğrusal bağlanım (linear regression) gibi davranacaktır.
Birden fazla dereceye sahip olan fonksiyonlara doğrusal olmayan fonksiyonlar deriz
Ağırlıklar ile ilgili hata değerlerini hesaplamak için yapay sinir ağında hatanın geriye yayılımı algoritması uygulanmaktadır. (Backward Propagation)
Aktivasyon fonksiyonu tüm bu bilgiler ve sizin yapay öğrenme modelinizin gereksinimlerine göre karar vermeniz gereken kritik bir optimizasyon problemidir.
Sigmoid Fonksiyonu
ReLU (Rectified Linear Unit) Fonksiyonu
Derin öğrenme modelleri denemelere bu fonksiyon ile başlanması tavsiye edilir.
Hız bakımından avantajlıdır. Gradyanların ölmesi gibi bir problemi vardır.
Genellikle çıkış değil ara katmanlarda kullanılır.
Softmax Fonksiyonu
Genelde çıkış için kullanılır.
Basamak (Step) Fonksiyonu
Doğrusal (Linear) Fonksiyon
Hiperbolik Tanjant Fonksiyonu
Sızıntı (Leaky) ReLU Fonksiyonu
Swish (A Self-Gated/Kendinden Geçitli) Fonksiyonu
(0, 1) arasıdan olan fonksyionlar *olasılıksal- fonksiyonlardır.
Otamatik Al-Sat işlemleri ile kullanılır.
ve tıklayarak makine öğrenimi için bulut hizmetlerine bakabilirsin.