⭐Ek Bilgiler
⏬ Coursera Çalışma Dosyalarını İndirme
Çalışma alanı sayfanıza girin (dosyaların olduğu yer)
Alttaki komutu kopyalayın
Tekrar dosyaların olduğu yere gelin ve orada beliren
workspace.tar.gz
dosyasını indirin
🎳 Dosyaların Boyutu 200MB'den Fazla İse
Alttaki komutu kopyalayın ve tek tek indirin
İndirdikten sonra dosyaları
cat workspace.tar.gz.part.* > workspace.tar.gz
ile birleştirebilirsiniz
Uygulamalar
Cloud Destekleri
Buraya ve buraya tıklayarak makine öğrenimi için bulut hizmetlerine bakabilirsin.
Derin Öğrenme Notları
Her zaman yapılacak iş: Girişler ile ağırlıkları çarp, sabit değişken (sapma) ile topla ve aktivasyon uygula!
Aktivasyon fonksiyonu kullanılmayan bir sinir ağı sınırlı öğrenme gücüne sahip bir doğrusal bağlanım (linear regression) gibi davranacaktır.
Birden fazla dereceye sahip olan fonksiyonlara doğrusal olmayan fonksiyonlar deriz
Ağırlıklar ile ilgili hata değerlerini hesaplamak için yapay sinir ağında hatanın geriye yayılımı algoritması uygulanmaktadır. (Backward Propagation)
Aktivasyon Fonksiyonları
Aktivasyon fonksiyonu tüm bu bilgiler ve sizin yapay öğrenme modelinizin gereksinimlerine göre karar vermeniz gereken kritik bir optimizasyon problemidir.
Sigmoid Fonksiyonu
ReLU (Rectified Linear Unit) Fonksiyonu
Derin öğrenme modelleri denemelere bu fonksiyon ile başlanması tavsiye edilir.
Hız bakımından avantajlıdır. Gradyanların ölmesi gibi bir problemi vardır.
Genellikle çıkış değil ara katmanlarda kullanılır.
Softmax Fonksiyonu
Genelde çıkış için kullanılır.
Basamak (Step) Fonksiyonu
Doğrusal (Linear) Fonksiyon
Hiperbolik Tanjant Fonksiyonu
Sızıntı (Leaky) ReLU Fonksiyonu
Swish (A Self-Gated/Kendinden Geçitli) Fonksiyonu
Aktivasyon Fonksiyonlarının Özellikleri
(0, 1) arasıdan olan fonksyionlar *olasılıksal- fonksiyonlardır.
Yapay Zeka Kullanım Alanları
Otamatik Al-Sat işlemleri ile kullanılır.
Harici Bağlantılar
Araştırmacılar Web Siteleri
GitHub Kaynakları
Firmalar
Karma
Derin Öğrenme Kaynakları
Motivasyon
Last updated