{"course":{"sections":{"tr":[{"title":"Modül 1 - Makine Öğrenmesi Temelleri","summary":"<h2>Makine Öğrenmesi(ML) Giriş</h2><h3>Makine Öğrenmesi Nedir?</h3><ul class=\"tight\" data-tight=\"true\"><li><p>ML tanımı</p></li><li><p>Geleneksel programlamadan farkı</p></li><li><p>Gerçek dünya uygulamaları ve örnekler</p></li><li><p>ML'i ne zaman kullanmalı, ne zaman kullanmamalı</p></li></ul><h3>Makine Öğrenmesi Türleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Supervised vs Unsupervised</p></li><li><p>Classification vs Regression</p></li><li><p>Training vs Prediction aşamaları</p></li></ul><h3>Temel ML Kavramları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Feature'lar ve target'lar</p></li><li><p>Altın kural: Test verisine final değerlendirmeden önce asla dokunma</p></li><li><p>Overfitting ve underfitting</p></li><li><p>Validation neden kritik öneme sahip</p></li><li><p>Metrik vs loss</p></li><li><p>Nasıl error fonksiyonu seçilir</p></li></ul><h3>ML Döngüsü</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Toplama → Ön İşleme→ Özellik Mühendisliği → Modelleme → Değerlendirme→ Canlıya Alma</p></li><li><p>ML projelerinin iteratif doğası</p></li><li><p>Yaygın yapılan hatalar ve bunlardan kaçınma yöntemleri</p></li></ul><p></p>"},{"title":"Modül 2 - Veriyi Bölme ve Ön İşleme","summary":"<h2>Veri Bölme</h2><h3>Üçlü Bölme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Training set</p></li><li><p>Validation set</p></li><li><p>Test set - kilitli tutulur</p></li><li><p>Sadece train/test split'in neden tehlikeli olduğu</p></li></ul><h3>Cross-Validation'a Giriş</h3><ul class=\"tight\" data-tight=\"true\"><li><p>K-fold cross-validation nedir</p></li><li><p>Doğru K değerini seçme</p></li><li><p>Hesaplama maliyeti dengesi</p></li><li><p>Bölmelerin görselleştirilmesi</p></li><li><p>Ne zaman kullanılmamalı</p></li></ul><h3>Gelişmiş Validation Stratejileri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>TimeSeriesSplit</p></li><li><p>GroupKFold</p></li><li><p>StratifiedKFold</p></li><li><p>Iterative stratification ile StratifiedKFold</p></li><li><p>Nested Cross-Validation</p></li></ul><h2>Veri Ön İşleme Temelleri</h2><h3>Veri Mühendisliği Temelleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Yeni feature'lar oluşturma</p></li><li><p>Alana özel oluşturulacak özellik analizi</p></li><li><p>Hali hazırdaki özelliklerin etkileşiminden yeni özellik oluşturma</p></li><li><p>Feature scaling ve normalization</p></li><li><p>Ön işleme neden önemli</p></li></ul><h3>Kategorik Değişkenleri İşleme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Label encoding</p></li><li><p>One-hot encoding</p></li><li><p>Target encoding temelleri</p></li><li><p>Gelişmiş encoding stratejileri</p></li><li><p>Hangi yöntem ne zaman kullanılmalı</p></li></ul><h3>Özellik Seçimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>İlgisiz feature'ları kaldırma</p></li><li><p>Korelasyon analizi</p></li><li><p>Feature importance temelleri</p></li></ul><h2>Veri Ön İşleme - Aykırı Gözlem</h2><h3>Aykırı Gözlemler(Outlier) Tespiti</h3><ul class=\"tight\" data-tight=\"true\"><li><p>İstatistiksel yöntemler: IQR, Z-score, Modified Z</p></li><li><p>ML tabanlı: Isolation Forest, Local Outlier Factor, DBSCAN</p></li><li><p>Alana özgü sınır değerleri</p></li><li><p>Multivariate outlier detection</p></li><li><p>Görsel analiz: box plot'lar, scatter plot'lar, QQ plot'lar</p></li></ul><h3>Aykırı Gözlemlerle Başa Çıkma - Silme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Ne zaman silinmeli: gerçek hatalar, veri girişi hataları</p></li><li><p>Yüzdelik eşik değer kuralları (örn: %5'ten fazlaysa sil)</p></li><li><p>Silmeden önce etki analizi</p></li></ul><h3>Aykırı Gözlemlerle Başa Çıkma - Capping/Winsorization</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Yüzdeliklerde capping (örn: 1. ve 99. percentile)</p></li><li><p>Winsorization uygulaması</p></li><li><p>Data boyutunu korurken etkiyi azaltma</p></li></ul><h3>Aykırı Gözlemlerle Başa Çıkma - Transformation</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Sağa çarpık data için log transformation</p></li><li><p>Square root, cube root transformation'ları</p></li><li><p>Optimal normallik için Box-Cox transformation</p></li><li><p>Outlier etkisini minimize etmek için RobustScaler</p></li></ul><h3>Aykırı Gözlemlerle Başa Çıkma - Binning</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Sürekli değerlerden kategorik değere geçme</p></li><li><p>Equal-width vs equal-frequency binning</p></li><li><p>Alan bilgisine dayalı custom bin'ler</p></li></ul><h3>Aykırı Gözlemlerle Başa Çıkma - Diğer Yöntemler</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Outlier'lar için ayrı model'ler kurma</p></li><li><p>Feature olarak outlier flagging</p></li><li><p>Ensemble yaklaşımı: normal + outlier model'leri</p></li><li><p>Eksik veri olarak kabul edip impute etme</p></li><li><p>Robust istatistik kullanma (median, trimmed mean)</p></li><li><p>Outlier'lar için model-based imputation</p></li><li><p>Farklı modellerin farklı outlier başa çıkma yöntemlerini gerektirmesi</p></li></ul><h2>Veri Ön İşleme - Eksik Veri</h2><h3>Eksik Veri İle Başa Çıkma</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Eksik verileri silme ve bu yaklaşımın zararları ve uygulanabileceği zamanlar</p></li><li><p>Basit imputation stratejileri ve sınırları</p></li><li><p>İleri düzey imputation: IterativeImputer, KNNImputer, MICE</p></li><li><p>Ne zaman atılmalı, ne zaman impute edilmeli</p></li><li><p>Missingness indicator'ları oluşturma</p></li><li><p>Alana özel imputation stratejileri</p></li><li><p>Eksik veriyi özellik olarak ekleme</p></li></ul><p></p>"},{"title":"Modül 3 - ML Model Kurma","summary":"<h2>Pipeline Mantığı ve Baz Model</h2><h3>Pipeline Oluşturma</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Scikit-learn Pipeline ve ColumnTransformer</p></li><li><p>Doğru pipeline tasarımı ile data leakage'ı önleme</p></li><li><p>Custom transformer'lar oluşturma</p></li><li><p>Pipeline persistence ve versioning</p></li></ul><h3>Baz Model Oluşturma</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Baz model mantığı</p></li><li><p>Basit linear/logistic regression baseline</p></li><li><p>AutoGluon/FLAML ile AutoML baseline</p></li><li><p>Baseline sonuçlarını yorumlama</p></li></ul><h2>Model Kurma</h2><h3>Lineer Modeller</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Sürekli sayısal tahminler için linear regresyon</p></li><li><p>Sınıflandırma için logistic regresyon</p></li><li><p>Genelleştirilmiş linear modeller</p></li><li><p>Ridge, Lasso yaklaşımları</p></li></ul><h3>Karar Ağaçları (Decision Trees)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Ağaçlar nasıl karar verir</p></li><li><p>Hyperparameters (max_depth, min_samples)</p></li><li><p>Overfitting'i önleme</p></li></ul><h3>Random Forests</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Ensemble learning konsepti</p></li><li><p>Ormanlar neden tek ağaçlardan daha iyi</p></li><li><p>Random Forest'tan feature importance</p></li><li><p>Random Feature selection konsepti</p></li><li><p>Bagging yaklaşımı</p></li><li><p>OOB score ve kullanımları</p></li><li><p>Random Forest'ın ne zaman üstün olduğu</p></li></ul><h2>Model Kurma - Gradient Boosting Modelleri</h2><h3>XGBoost</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Boosting konsepti açıklaması</p></li><li><p>Önemli parametreler</p></li><li><p>Regression ve classification modları</p></li><li><p>Uygulamalı model oluşturma</p></li><li><p>Boosting yaklaşımında GPU desteği kullanma</p></li></ul><h3>LightGBM</h3><ul class=\"tight\" data-tight=\"true\"><li><p>XGBoost yerine ne zaman kullanılmalı</p></li><li><p>Hız avantajları</p></li><li><p>Kategorik özellikleri işleme</p></li></ul><h3>CatBoost</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Dahili kategorik encoding</p></li><li><p>Overfitting'i önleme</p></li><li><p>Model karşılaştırması</p></li></ul><h2>Başarı Metrikleri ve Loss Fonksiyonları</h2><h3>Sınıflandırma</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Accuracy</p></li><li><p>Precision</p></li><li><p>Recall</p></li><li><p>F1</p></li><li><p>ROC-AUC</p></li><li><p>PR-AUC</p></li></ul><h3>Regresyon</h3><ul class=\"tight\" data-tight=\"true\"><li><p>MAE</p></li><li><p>RMSE</p></li><li><p>MAPE</p></li><li><p>R²</p></li><li><p>quantile loss</p></li></ul><h3>Model Çıktılarının İncelenmesi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bias-variance analizi için learning curve'ler</p></li><li><p>Hiperparametre etkisi için validation curve'ler</p></li><li><p>Confusion matrix derinlemesine inceleme</p></li><li><p>Calibration plot'ları ve reliability diagram'ları</p></li><li><p>Erör analizi teknikleri</p></li></ul><h2>Hiperparametre Optimizasyonu</h2><h3>Optimizasyon Stratejileri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Grid search vs Random search vs Bayesian optimization</p></li><li><p>Optuna ile hiperparametre ayarlama</p></li><li><p>Multi-objective optimization</p></li><li><p>Daha hızlı optimizasyon için pruning stratejileri</p></li><li><p>Önce hangi hiperparametrelerden başlamak lazım?</p></li></ul><h2>Tablo Verilerinde Yapay Sinir Ağları(NN)</h2><h3>Kullanılan modeller</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Tablo verileri için NN’ler ne zaman kullanmalı</p></li><li><p>PyTorch tabular model'leri</p></li><li><p>SOTA mimariler</p></li><li><p>Kategorik değişkenler için entity embedding'ler</p></li><li><p>Ağaç bazlı modellerle karşılaştırma</p></li></ul><h2>Dengesiz Veri Setleri(Imbalanced Data)</h2><h3>Dengesiz Veri İle Nasıl Başa Çıkılır</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Class weight ayarlamaları</p></li><li><p>SMOTE ve varyantları (BorderlineSMOTE, ADASYN)</p></li><li><p>Threshold optimization</p></li><li><p>TomekLinks</p></li><li><p>Cost-sensitive learning</p></li><li><p>Dengesiz veriler için ensemble yöntemleri</p></li></ul><h2>Model Açıklanabilirliği</h2><h3>Araçlar</h3><ul class=\"tight\" data-tight=\"true\"><li><p>SHAP value'ları: global ve local açıklamalar</p></li><li><p>Local interpretability için LIME</p></li><li><p>Permutation importance</p></li><li><p>Partial dependence plot'ları</p></li><li><p>Individual conditional expectation plot'ları</p></li></ul><p></p>"}]},"discount_try_percentage":null,"published_at":"2025-08-29T09:16:51.668598+00:00","promotional_video_url":null,"updated_at":"2025-09-05T11:53:34.350185+00:00","title":{"tr":"Uygulamalı Makine Öğrenmesi"},"duration_hours":24,"available_as_corporate":true,"cover_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/9ccdc530-230d-477a-8bcd-341d12119c44.png","order":28,"deleted_at":null,"duration_days":null,"video_conference_link":null,"hidden":false,"category_id":null,"short_title":{"tr":null},"level":null,"bogazici_link":null,"cover_image_x":50,"suggested_next_course_id":null,"id":42,"slug":{"tr":"uygulamali-makine-ogrenmesi"},"schedule_info":null,"available_as_personal":true,"cover_image_y":50,"lesson_count":0,"summary":{"tr":null},"bogazici_collab":false,"is_workshop":false,"corporate_cover_image_url":null,"sidebar_copy":{"tr":"<p></p>"},"price_try":null,"has_lessons":false,"corporate_cover_image_x":50,"created_at":"2025-08-29T08:48:58.478574+00:00","description":{"tr":[{"type":"text","title":"Kurs Açıklaması","content":"<p>Veri çağında rekabet avantajı sağlamanın anahtarı, veriden anlamlı içgörüler çıkarabilmektir.</p><p>Bu kapsamlı eğitim, katılımcılara makine öğrenmesinin temellerinden başlayarak gerçek dünya problemlerini çözebilecek seviyeye kadar pratik bir yolculuk sunar.</p><p>Python ve scikit-learn ekosistemiyle veri ön işleme, model kurma, hiperparametre optimizasyonu ve model değerlendirme süreçlerini uygulamalı olarak öğreneceksiniz.</p><p>XGBoost, LightGBM gibi modern algoritmaları kullanarak tahmin modelleri geliştirebilir, SHAP ile modellerinizi açıklayabilir ve dengesiz veri setleriyle başa çıkabilir hale geleceksiniz.</p>"},{"type":"text","title":"Hedef Kitle","content":"<p>Bu eğitim, veri odaklı karar verme süreçlerinde aktif rol almak isteyen ve makine öğrenmesi ile iş değeri yaratmak isteyen profesyoneller için tasarlanmıştır.</p><ul class=\"tight\" data-tight=\"true\"><li><p>Veri analistleri ve bilimcileri: ML becerilerini derinleştirmek ve modern algoritmalarla tanışmak isteyenler için idealdir.</p></li><li><p>Yazılım geliştiriciler: Uygulamalarına tahmin ve sınıflandırma yetenekleri eklemek isteyenler faydalanabilir.</p></li><li><p>İş analistleri ve ürün yöneticileri: Veri odaklı stratejiler geliştirmek ve ML projelerini daha iyi yönetmek için teknik altyapı kazanabilir.</p></li><li><p>Mühendisler, araştırmacılar ve akademisyenler: Üretim optimizasyonu, kalite kontrol veya bilimsel araştırmalarda ML kullanmak için sağlam bir temel oluşturabilir.</p></li><li><p>Finans, pazarlama, satış ve operasyon departmanlarında çalışan profesyoneller: Tahmin modelleri ile süreçlerini iyileştirmek isteyen herkes yararlanabilir.</p></li></ul><p></p>"},{"type":"text","title":"Ön Koşul","content":"<ul class=\"tight\" data-tight=\"true\"><li><p>Python programlama dilinde temel seviye bilgi (değişkenler, döngüler, fonksiyonlar)</p></li><li><p>Temel istatistik kavramlarına aşinalık (ortalama, standart sapma, korelasyon)</p></li><li><p>Pandas kütüphanelerinde başlangıç düzeyi deneyim (tercih edilir, gerekli değil)</p></li></ul><p></p>"},{"type":"text","title":"Kazanımlar","content":"<ul class=\"tight\" data-tight=\"true\"><li><p>Makine öğrenmesinin temellerini kavrayıp farklı ML öğrenme türlerini ayırt edebilmek</p></li><li><p>Train/validation/test split mantığını uygulayıp overfitting/underfitting problemlerini tespit ve çözebilmek</p></li><li><p>Farklı cross-validation stratejilerini (K-Fold, StratifiedKFold, TimeSeriesSplit) seçip uygulayabilmek</p></li><li><p>Eksik veri ve aykırı gözlemleri tespit edip modele hazır hale getirebilmek</p></li><li><p>Özellik mühendisliği ile yeni özellikler türetebilmek, kategorik değişkenleri encoding yöntemleriyle dönüştürebilmek</p></li><li><p>Modern ML algoritmalarını (Linear/Logistic Regression, Decision Trees, Random Forest, XGBoost, LightGBM, CatBoost) kurup optimize edebilmek</p></li><li><p>Optuna ile hiperparametre optimizasyonu yapabilmek; Grid Search ve Bayesian Optimization arasında seçim yapabilmek</p></li><li><p>Dengesiz veri setlerinde (SMOTE, class weights, threshold optimization) başarılı modeller geliştirebilmek</p></li><li><p>Model açıklanabilirliğini (SHAP, LIME, Permutation Importance) sağlayarak iş birimlerine aktarabilmek</p></li><li><p>Scikit-learn Pipeline ve ColumnTransformer ile end-to-end ML süreçleri tasarlayabilmek ve data leakage’ı önleyebilmek</p></li><li><p>Confusion matrix, ROC-AUC, PR-AUC, learning curves ile model performansını analiz edip yorumlayabilmek</p></li></ul><p></p>"}]},"show_price":true,"corporate_cover_image_y":50,"future_instances":[],"units":[],"course_instructors":[],"category":null,"course_group":null,"instances":[]},"instance":null,"current_user":null,"corporate":false}