{"course":{"updated_at":"2025-09-01T06:41:11.699364+00:00","title":{"tr":"Big Data (Büyük Veri)"},"duration_hours":48,"available_as_corporate":true,"cover_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/7814fe32-9d64-4647-a105-c1f72db2fbfb.png","order":5,"deleted_at":null,"duration_days":null,"video_conference_link":null,"hidden":false,"category_id":7,"short_title":{"tr":null},"level":null,"bogazici_link":null,"cover_image_x":50,"suggested_next_course_id":null,"id":5,"slug":{"tr":"big-data-buyuk-veri"},"schedule_info":null,"available_as_personal":true,"cover_image_y":50,"summary":{"tr":null},"bogazici_collab":false,"is_workshop":false,"corporate_cover_image_url":null,"lesson_count":0,"sidebar_copy":{"tr":null},"price_try":2500000,"has_lessons":false,"corporate_cover_image_x":50,"created_at":"2025-04-21T17:46:18.775404+00:00","description":{"tr":[{"type":"text","title":"Kurs Açıklaması","content":"<p><strong>Veri Mühendisliğinde Uzmanlaşın: Temellerden Modern Mimarilere Uçtan Uca Büyük Veri Yolculuğu</strong></p><p>Verinin en değerli kaynak olduğu günümüz dünyasında, bu verileri işleyebilen, depolayabilen ve değere dönüştürebilen profesyonellere olan talep hiç olmadığı kadar yüksek.</p><p>Bu kapsamlı kurs, sizi <strong>Büyük Veri dünyasının temellerinden alıp, en modern bulut tabanlı veri platformlarını tasarlayıp yönetecek ileri düzey yetkinliklere</strong> taşıyor. İlişkisel veritabanlarından NoSQL'e, HDFS'ten bulut depolamaya (AWS/Azure), Batch işlemeden gerçek zamanlı akışa (Spark &amp; Kafka), Data Lake'lerden Lakehouse mimarilerine kadar <strong>tüm kritik konuları derinlemesine ve uygulamalı olarak</strong> ele alıyoruz.</p><p>Sadece teoride kalmayacak; <strong>Docker, Terraform (IaC), Apache Spark, Kafka, Airflow gibi endüstri standardı araçlarla laboratuvarlarda pratik deneyim</strong> kazanacak, veri boru hatları (pipelines) kuracak, optimize edecek ve operasyonel hale getireceksiniz. Veri kalitesi, güvenlik, yönetişim ve maliyet optimizasyonu gibi <strong>gerçek dünya zorluklarına çözümler üretebilen, aranan bir Veri Mühendisi olmak için gereken her şeyi</strong> bu kursta bulacaksınız. Kariyerinizde bir sonraki adımı atmaya hazırsanız veya bu konuda çalışıyor ve daha da yetkin hale gelmek istiyorsanız bu yolculuk tam da size göre!</p>"},{"type":"text","title":"Kursun Amacı","content":"<p>Bu kursun temel amacı, katılımcılara modern veri ekosisteminde başarılı bir Veri Mühendisi olmak için gereken <strong>teorik bilgiyi, pratik becerileri ve stratejik bakış açısını kazandırmaktır. </strong>Kurs sonunda katılımcılar şunları yapabiliyor olacaktır:</p><ul class=\"tight\" data-tight=\"true\"><li><p>Büyük Veri kavramlarını (5V), yaşam döngüsünü ve modern veri mimarilerine (Data Lake, Lakehouse, Lambda/Kappa) <strong>hakim olacak ve sistem tasarımları yapabilecek</strong>.</p></li><li><p>İlişkisel (SQL) ve NoSQL veritabanı sistemlerini <strong>anlayacak, modelleyecek ve projelerine entegre edebilecek</strong>.</p></li><li><p>AWS/Azure gibi lider bulut platformlarında <strong>altyapıyı kod (IaC - Terraform) ile kurup yönetebilecek</strong>, temel bulut hizmetlerini (depolama, işlem) etkin bir şekilde <strong>kullanabilecek</strong>.</p></li><li><p>Hadoop ekosistemini (HDFS, Hive) ve modern depolama formatlarını (Parquet, Avro) <strong>anlayacak ve uygulayabilecek</strong>.</p></li><li><p>Apache Spark kullanarak büyük veri kümelerini <strong>etkin bir şekilde işleyebilecek (DataFrame API, Spark SQL), optimize edebilecek ve yönetebilecek</strong>.</p></li><li><p>Apache Kafka ve Spark Structured Streaming gibi teknolojilerle <strong>gerçek zamanlı veri akışlarını işleyebilecek sistemler tasarlayabilecek ve kurabilecek </strong>.</p></li><li><p>Veri alımı (ETL/ELT), orkestrasyon (Airflow/Bulut Araçları) ve veri boru hattı(pipeline) yönetimi süreçlerini <strong>tasarlayabilecek ve uygulayabilecek</strong>.</p></li><li><p>Veri kalitesi, güvenlik, yönetişim prensiplerini <strong>anlayacak ve büyük veri sistemlerine entegre edebilecek </strong>.</p></li><li><p>Büyük veri platformlarını <strong>izleyebilecek, test edebilecek, CI/CD süreçlerini uygulayabilecek ve maliyet optimizasyonu yapabilecek </strong>.</p></li><li><p>Uçtan uca bir büyük veri projesini <strong>tasarlayıp hayata geçirebilecek yetkinliğe ulaşacak</strong>.</p></li></ul><p></p>"}]},"discount_try_percentage":null,"show_price":false,"corporate_cover_image_y":50,"sections":{"tr":[{"title":"Büyük Veri Temelleri ve İlişkisel Veri Sistemleri","summary":"<h3>Büyük Veri Nedir?</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Büyük Veri Tanımı ve Özellikleri (5V - Hacim, Hız, Çeşitlilik, Doğruluk, Değer)</p></li><li><p>Hangi Veri \"Büyük Veri\"dir?</p></li><li><p>Hangi iş süreçlerinde kullanılır?</p></li></ul><h3>Büyük Veri Yaşam Döngüsü</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Alımı → Depolama → İşleme → Analiz → Sunum → Yönetişim</p></li></ul><h3>İlişkisel Veri Tabanlarına Giriş</h3><ul class=\"tight\" data-tight=\"true\"><li><p>İlişkisel Veri Modeli Temelleri</p></li><li><p>SQL Temel İşlemleri (SELECT, JOIN, GROUP BY, WHERE)</p></li><li><p>Normalizasyon (1NF, 2NF, 3NF) Kavramları ve Önemi</p></li><li><p>ACID Özellikleri ve Önemi</p></li></ul><h3>Veri Mimarilerinin Evrimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veritabanı → Veri Deposu →Data Lake → Lakehouse Mimarileri</p></li><li><p>Lambda &amp; Kappa Mimarileri (Bağlam &amp; Önemi)</p></li></ul><h3>Dağıtık Sistemler Temelleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Tek bir süper bilgisayarda yapmak yerine neden dağıtık sistemler?</p></li><li><p>CAP Teoremi, BASE Kavramı ve Uygulamadaki Anlamları</p></li></ul><h3>Bulut Geliştirme Ortamı Kurma (AWS/Azure Odaklı)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut Konsoluna Giriş &amp; IAM Temelleri&nbsp;&nbsp;</p></li><li><p>CLI Kurulumu</p></li><li><p>Kod Olarak Altyapı (IaC) Temelleri (Terraform/CloudFormation)</p></li><li><p>Docker Temelleri</p></li></ul><h3>Laboratuvar 1</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Docker’da basit dağıtık (HDFS + Spark) ve MySQL ortamı kurmak</p></li><li><p>MinIO ile yerel “S3” deneyi</p></li><li><p>Terraform ile AWS S3 oluşturmak</p></li><li><p>IaC ile temel bulut depolaması sağlamak</p></li></ul><p></p>"},{"title":"Petabaytları Depolama: On-Prem ve Bulut Çözümler","summary":"<h3>Geleneksel (On-Premise) Veri Depolama Çözümleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Yerel Dosya Sistemleri (HDFS - Hadoop Distributed File System)</p></li><li><p>Hadoop Temelleri ve Ekosistemi</p></li><li><p>Hadoop Cluster (YARN) Kurulumu ve Yönetimi</p></li><li><p>Hadoop Ekosistem Araçları (HDFS, Hive, HBase)</p></li></ul><h3>Bulut Temelleri ve Altyapı Kurulumu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS/Azure/GCP Temelleri, Konsol ve CLI Kullanımı</p></li><li><p>Altyapıyı Kod Olarak Yönetme (Terraform, CloudFormation)</p></li></ul><h3>Bulutta Nesne Depolama Hizmetleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS S3, Azure Data Lake Storage (ADLS), Google Cloud Storage (GCS)</p></li><li><p>Depolama Türleri, Fiyatlandırma ve Yaşam Döngüsü Yönetimi</p></li><li><p>Erişim Yönetimi, Güvenlik (IAM, Erişim Kontrolü)</p></li></ul><h3>Büyük Veri için Veri Formatları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>CSV, JSON formatı ve kısıtlamaları</p></li><li><p>Sütun-Bazlı Depolama Formatları: Parquet, ORC</p></li><li><p>Serileştirme ve Veri Evrimi (Avro, Protobuf)</p></li></ul><p></p>"},{"title":"NoSQL ve Lakehouse Mimarisi","summary":"<h3>NoSQL Veritabanları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>NoSQL Nedir? Ne Zaman Tercih Edilir? (CAP ve BASE Bağlantısı)</p></li><li><p>Anahtar-Değer Depoları (DynamoDB, Redis vb.)</p><ul class=\"tight\" data-tight=\"true\"><li><p>Kullanım durumları, modelleme, ölçeklendirme</p></li></ul></li><li><p>Doküman Tabanlı Depolar (MongoDB, Cosmos DB)</p><ul class=\"tight\" data-tight=\"true\"><li><p>kullanım durumları, esnek şema</p></li></ul></li><li><p>Sütun-Ailesi Depoları (Cassandra, HBase)</p><ul class=\"tight\" data-tight=\"true\"><li><p>Write-heavy, zaman serisi</p></li></ul></li><li><p>Grafik ve Zaman Serisi Veritabanlarına Kısa Bakış</p></li></ul><h3>Lakehouse Mimarisi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Data Lake vs Data Warehouse vs Lakehouse</p></li><li><p>Delta Lake, Apache Iceberg, Apache Hudi Temelleri</p></li><li><p>ACID, Schema Evolution, Time Travel</p></li></ul><h3>Laboratuvar 2</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut depolamada verileri Parquet’e alma ve dönüştürme</p></li><li><p>Temel NoSQL etkileşimleri</p></li><li><p>Basit bir Delta Lake tablosu uygulaması</p></li></ul><p></p>"},{"title":"Veri Alımı, Orkestrasyon ve ETL/ELT Süreçleri","summary":"<h3>Veri Alımı Stratejileri (Data Ingestion)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Batch Alım vs Streaming Alım</p></li><li><p>ETL ve ELT Farkları</p></li><li><p>CDC (Change Data Capture) Yaklaşımları (Debezium)</p></li><li><p>API Tabanlı Alım</p></li></ul><h3>Alım Araçları ve Teknolojiler</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Sqoop, Flume</p></li><li><p>Apache Kafka ve Kafka Connect</p></li><li><p>Bulut Araçları (AWS Glue, Azure Data Factory, GCP Dataflow)</p></li></ul><h3>Veri Orkestrasyonu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Orkestrasyon nedir?</p></li><li><p>Neden orkestre edilmeli?</p></li><li><p>Apache Airflow Kavramları (DAG, Operatörler, Hata Yönetimi)</p></li><li><p>Bulut Orkestrasyon Araçları (AWS Step Functions, Azure Data Factory Pipelines)</p></li><li><p>Bağımlılıklar, hata yönetimi, yeniden denemeler, izleme</p></li></ul><h3>Veri Boru Hatları için Kod Olarak Altyapı (IaC)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Terraform / CloudFormation / ARM Şablonlarını Kullanma</p></li><li><p>Veri kaynaklarını yönetme (Depolama, Hesaplama,</p></li><li><p>Altyapı için sürüm kontrolü</p></li></ul><h3>Laboratuvar 3</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut hizmetlerini (örn. ADF/Glue) kullanarak bir ELT boru hattı oluşturma</p></li><li><p>Veri dönüşümleri yapmak</p></li><li><p>IaC ile tanımlanan Airflow veya Step Functions ile orkestrasyon</p></li></ul><p></p>"},{"title":"Veri İşlemek İçin Apache Spark","summary":"<h3>Spark Mimarisi &amp; Temel Kavramlar</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Temel Kavramlar (Driver, Executor, Cluster Manager)</p></li><li><p>RDD, DataFrame ve Dataset Kavramları</p></li><li><p>Catalyst Optimizer &amp; Tungsten</p></li><li><p>Lazy Evaluation</p></li></ul><h3>Spark SQL &amp; DataFrame API</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Farklı kaynakları okuma/yazma (Parquet, Delta, JDBC, NoSQL)</p></li><li><p>SQL sorguları &amp; DataFrame işlemleri</p><ul class=\"tight\" data-tight=\"true\"><li><p>Select</p></li><li><p>Filter</p></li><li><p>Join</p></li><li><p>GroupBy, Aggregate, Window Fonksiyonları</p></li></ul></li><li><p>Kullanıcı Tanımlı Fonksiyonlar (UDF’ler)</p></li></ul><h3>Spark Performans Ayarları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Partitioning, Shuffling ve Join Stratejileri</p></li><li><p>Cache ve Persistence Yöntemleri</p></li><li><p>Spark UI kullanımı ve optimizasyonu</p></li></ul><h3>Bulutta Spark Yönetimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS EMR, Azure Databricks, GCP Dataproc Kullanımı ve Yönetimi</p></li><li><p>Spark Cluster Ayarlama ve Optimizasyonu</p></li></ul><h3>Laboratuvar 4.1</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Gerçek hayat verileri üzerinde Spark SQL &amp; DataFrame API ile kapsamlı uygulama</p></li></ul><h3>Laboratuvar 4.2</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Yönetilen bulut hizmetinde Spark görevlerini dağıtma, izleme ve temel ayarlamalar yapma</p></li></ul><p></p>"},{"title":"Gerçek Zamanlı Akan Veri İşleme (Streaming)","summary":"<h3>Gerçek Zamanlı Veri İşleme Kavramları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Event Time, Processing Time, Windowing ve Watermarking</p></li><li><p>Veri İşleme Garantileri (Exactly-once, At-least-once)</p></li></ul><h3>Streaming Platformları ve Kafka</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Apache Kafka Detaylı Bakış (Broker, Topic, Partition, Offset, Consumers)</p></li><li><p>Bulut Platformları (AWS Kinesis, Azure Event Hubs, GCP Pub/Sub)</p></li></ul><h3>Spark Structured Streaming</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Spark Streaming ve Structured Streaming Kavramları</p></li><li><p>DataFrame API</p></li><li><p>Mikro-batch ve Continuous Processing Farkları</p></li><li><p>Streaming Verinin Bulutta Yönetimi (Kafka → Spark → Depolama)</p></li><li><p>Sources &amp; Sinks (Kafka, Dosyalar, Bulut Akışları, Delta Lake)</p></li><li><p>Checkpoint oluşturma &amp; hata toleransı</p></li></ul><h3>Apache Flink’e Giriş (Karşılaştırmalı Genel Bakış)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Düşük gecikmeli akışa odaklanma</p></li><li><p>Spark Streaming’den temel kavramsal farklar</p></li></ul><h3>Laboratuvar 5.1</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Kafka veya bulut akış hizmetini (Kinesis/Event Hubs/PubSub) kurma ve etkileşim oluşturma</p></li></ul><h3>Laboratuvar 5.2</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Spark Yapılandırılmış Akış görevi oluşturma (okuma, dönüştürme, pencereleme, yazma)</p></li><li><p>Watermarking &amp; checkpointing uygulama</p></li></ul><p></p>"},{"title":"Veri Kalitesi, Güvenlik ve Yönetişim","summary":"<h3>Veri Kalitesi Yönetimi</h3><ul><li>Veri Kalitesi Boyutları (Doğruluk, Tutarlılık, Tamlık vb.)</li><li>Veri Kalitesi Araçları (Great Expectations, Deequ)</li></ul><h3>Veri Yönetişimi Temelleri</h3><ul><li>Metadata Yönetimi ve Veri Kataloğu (AWS Glue Catalog, Azure Purview)</li><li>Veri Kökeni (Lineage) Kavramı ve Uyumluluk (GDPR, CCPA)</li></ul><h3>Büyük Veri Güvenliği</h3><ul><li>Kimlik Doğrulama ve Yetkilendirme (IAM, RBAC)</li><li>Veri Gizliliği Teknikleri (Anonimleştirme, Takma İsimlendirme)</li><li>Şifreleme (Veri Saklarken ve Taşırken)</li></ul><p></p>"},{"title":"Veriyi Sunma - Analitik & BI Entegrasyonu","summary":"<h3>Büyük Veri Analitiği Araçları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Dağıtık SQL Motorları (Presto, Trino, AWS Athena, Google BigQuery)</p></li><li><p>Bulut Veri Depoları (AWS Redshift, Azure Synapse, Google BigQuery)</p></li></ul><h3>Modern Bulut Veri Deposusu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS Redshift / Azure Synapse Dedicated SQL / Google BigQuery</p></li><li><p>MPP mimarisi, sütun depolama, dağıtım, WLM</p></li><li><p>Lakehouse’dan yükleme</p></li><li><p>Veri deposu kullanımı vs. lake sorgulama zamanı</p></li></ul><h3>İş Zekası (BI) Araçları ile Entegrasyon</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Tableau, Power BI, Looker ve AWS QuickSight Bağlantısı</p></li><li><p>DirectQuery ve Veri İçe Aktarma Stratejileri</p></li><li><p>Sorgu motoru uç noktaları (Athena, Synapse, BigQuery, Databricks SQL)</p></li></ul><h3>Veri API’si ve Sunum Katmanlarına Giriş</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Basit veri sunumu için sunucusuz fonksiyonları (Lambda/Azure Functions) kullanma</p></li></ul><h3>Laboratuvar 6</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Athena/Synapse Serverless/BigQuery kullanarak Lakehouse verisini sorgulama</p></li><li><p>Bir BI aracını bağlama</p></li><li><p>Basit bir sunucusuz veri API’si oluşturma</p></li></ul><p></p>"},{"title":" Büyük Veri Pipeline Operasyonelleştirme","summary":"<h3>İzleme, Günlükleme ve Alarm Yönetimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Dağıtık izleme kavramları</p></li><li><p>Boru hatları için ana metrikler (Spark, Kafka, Depolama, Sorgu Motorları)</p></li><li><p>Bulut İzleme Araçları (CloudWatch, Azure Monitor, Google Monitoring)</p></li><li><p>Dağıtık Sistemlerde Loglama ve Uyarılar</p></li></ul><h3>Veri Boru Hatlarını Test Etme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Birim testi (Spark)</p></li><li><p>Entegrasyon test aşamaları</p></li><li><p>Veri doğrulama testi (Veri kalitesi entegrasyonu)</p></li><li><p>Test veri stratejileri &amp; canary dağıtımlar</p></li></ul><h3>CI/CD Yaklaşımları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>GitHub Actions, GitLab CI, Jenkinsve ve Azure DevOps ile Sürekli Entegrasyon ve Teslimat</p></li><li><p>Test Stratejileri ve Ortam Yönetimi (Development, Stage, Production)</p></li></ul><h3>Maliyet Yönetimi ve Optimizasyonu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut Hizmetleri Maliyetlendirme Modelleri</p></li><li><p>Kaynak Optimizasyonu (Reserved Instance, Spot Instance)</p></li><li><p>Depolama katmanı optimizasyonu</p></li><li><p>Maliyet izleme araçları &amp; bütçeleme</p></li><li><p>Sorgu maliyeti optimizasyonu</p></li></ul><h3>Laboratuvar 7</h3><ul class=\"tight\" data-tight=\"true\"><li><p>İşleri ve metrikler günlüklerle enstrümante etme</p></li><li><p>Uyarılar oluşturma</p></li><li><p>Temel bir CI/CD pipeline oluşturma</p></li><li><p>Örnek bir iş yükü için maliyet optimizasyonlarını analiz etme ve önerme</p></li></ul><p></p>"},{"title":"Güncel Trendler ve Kariyer","summary":"<h3>Yeni Trendler</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Mesh Konsepti ve Uygulamaları</p></li><li><p>MLOps ve Özellik Mağazaları (Feature Store)</p></li><li><p>Vektör Veritabanları ve Yapay Zeka Bağlantısı</p></li></ul><h3>Kariyer ve Sürekli Öğrenme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Mühendisliği Kariyer Yolları</p></li><li><p>Sürekli Öğrenme Stratejileri ve Kaynakları</p></li></ul><p></p>"},{"title":"Capstone Projesi (Bitirme Projesi)","summary":"<h3>Uçtan Uca Büyük Veri Projesi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Gerçek Hayat Senaryosu ile Veri Alımı, Depolama, İşleme, Analitik ve Görselleştirme</p></li><li><p>IaC, CI/CD, Güvenlik, İzleme, Maliyet Optimizasyonu Entegrasyonu</p></li><li><p>Proje Dokümantasyonu ve Demo/Sunum</p></li></ul><p></p>"}]},"published_at":"2025-04-21T17:46:38.301357+00:00","promotional_video_url":null,"units":[],"course_instructors":[{"course_id":5,"instructor_id":6,"is_active":true,"instructor":{"deleted_at":null,"slug":{"tr":"sukru-yusuf-kaya"},"bio":{"en":"<p>Şükrü Yusuf Kaya is an expert with over ten years of hands-on experience in artificial intelligence, machine learning, and advanced data engineering. With a strong academic background in computer engineering, statistics, and cybersecurity, he leads organizations in rapidly generating business value from data by ensuring the seamless transition of research outputs into production environments. He has designed end-to-end artificial intelligence architectures in critical sectors such as finance, telecommunications, defense, and manufacturing, delivering reliable, scalable, and regulation-compliant solutions under demanding operational constraints.</p><p>His projects in both public and private sectors span a wide range, including enterprise-scale RAG-based information access systems, real-time fraud detection platforms, production line video analytics, and performance optimization of distributed big data infrastructures. The MLOps framework he designed for internal teams reduced development costs by shortening the model lifecycle by 40%, while significantly improving transparency in model versioning and monitoring.</p><p>In addition to consulting, Kaya designs and delivers advanced technical training programs. He has mentored and trained hundreds of engineers through comprehensive curricula ranging from fine-tuning large language models to autonomous AI agent architectures, and from cloud-native high-performance computing clusters to production-grade deployment practices. His teaching approach, grounded in problem-driven explanations, live coding sessions, and industry-specific case studies,enables participants to directly apply acquired knowledge to real-world projects.</p><p>His research focuses on high-precision anomaly detection in dynamic systems by combining large language models with multi-source real-time video streams. His long-term objective is to develop explainable and cyber-secure AI systems capable of triggering autonomous interventions within seconds in closed-loop industrial environments.</p><p>📈 Enterprise AI Strategy Design &amp; ROI Optimization<br> 💾 Lakehouse &amp; Streaming Data Architectures<br> 🧠 Large Language Models (LLM) &amp; RAG Solutions<br> 🤖 AI Agents &amp; Autonomous Task Execution<br> 🛰️ Swarm AI for Autonomous Drone &amp; Robotics Systems<br> 📹 Nanosecond Video Analytics &amp; Edge AI<br> 🏭 Industrial IoT &amp; Digital Twin Systems<br> 🔒 Trustworthy &amp; Explainable AI<br> 👥 Privacy-Preserving &amp; Federated Learning<br> 💳 FinTech Fraud Detection &amp; AML Systems<br> 🗺️ Geospatial Big Data &amp; Dynamic Logistics<br>🔬 Multi-Modal Medical Diagnostic Systems<br> 🛡️ Adversarial Resilience &amp; AI Red-Teaming<br> 🗄️ MLOps – CI/CD, Feature Stores &amp; Model Monitoring<br> 📉 Time Series Analysis &amp; Anomaly Detection<br> 🧬 Synthetic Data Generation<br> ♻️ Energy AI &amp; Carbon Optimization<br> ⚛️ Quantum-Assisted Machine Learning<br> 💻 Multi-Node HPC &amp; Distributed GPU Training</p><p>For customized consulting, project development, and advanced training solutions, please contact us.</p>","tr":"Şükrü Yusuf Kaya, yapay zekâ, makine öğrenmesi ve ileri veri mühendisliği alanlarında on yılı aşkın saha deneyimine sahip bir uzmandır. Bilgisayar mühendisliği, istatistik ve siber güvenlik ekseninde şekillenen güçlü akademik arka planı sayesinde, araştırma çıktılarının üretim ortamlarına sorunsuz taşınmasını sağlayarak kurumların veriden hızla katma değer üretmesine öncülük eder. Finans, telekomünikasyon, savunma ve imalat gibi kritik sektörlerde uçtan uca yapay zekâ mimarileri tasarlamış; zorlu operasyonel kısıtları gözeterek güvenilir, ölçeklenebilir ve regülasyon-uyumlu çözümler hayata geçirmiştir.\n\nKamu ve özel sektörde yürüttüğü projeler, Kurumsal RAG tabanlı bilgi erişim sistemlerinden gerçek zamanlı dolandırıcılık tespitine, üretim hattı video analitiğinden dağıtık büyük veri platformlarının performans optimizasyonuna kadar geniş bir yelpazeyi kapsar. İç ekipler için tasarladığı MLOps çerçevesi, model yaşam döngüsünü %40 kısaltarak geliştirme maliyetlerini düşürmüş, aynı zamanda model sürümleme ve izleme süreçlerinin şeffaflığını artırmıştır.\n\nDanışmanlığın yanı sıra Kaya, üst düzey teknik eğitim programları da geliştirmekte ve yürütmektedir. Büyük dil modellerinin ince ayarından otonom AI ajan mimarisine, bulut-yerel yüksek performanslı hesaplama kümelerinden üretim ortamında devreye alıma kadar uzanan kapsamlı içeriklerle yüzlerce mühendise mentorluk ve sınıf içi eğitim vermiştir. Problem odaklı anlatım, canlı kodlama oturumları ve sektör-spesifik vaka analizleri üzerine inşa ettiği pedagojik yaklaşım, katılımcıların edinilen bilgiyi projelerine doğrudan aktarmalarını mümkün kılar.\n\nAraştırmalarını büyük dil modelleri ile çok-kaynaklı gerçek zamanlı video akışlarını birleştirerek, dinamik sistemlerde yüksek hassasiyetli anomali tespiti üzerine yoğunlaştırmaktadır. Nihai hedefi, kapalı çevrim üretim hatlarında saniyeler içinde otomatik müdahaleyi tetikleyebilen, açıklanabilir ve siber güvenli yapay zekâ çözümleri geliştirmektir.\n\n\n📈 Kurumsal AI Strateji Tasarımı &amp; Yatırım Getirisi (ROI) Optimizasyonu\n💾 Lakehouse &amp; Streaming Veri Mimarileri \n🧠 Büyük Dil Modelleri (LLM) ve RAG Çözümleri \n🤖 AI Ajanları &amp; Otonom Görev Yürütme \n🛰️ Swarm AI: Otonom Drone &amp; Robot Filolarında İş Birliği \n📹 Nano-Saniye Video Analitiği &amp; Edge-AI \n🏭 Endüstriyel IoT &amp; Dijital İkiz \n🔒 Güvenilir &amp; Açıklanabilir AI \n👥 Gizliliği Korumalı / Federated Learning \n💳 FinTech Dolandırıcılık &amp; AML Tespiti \n🗺️ Jeo-Uzamsal Büyük Veri &amp; Dinamik Lojistik \n🔬 Çok-Modelli Medikal Teşhis Sistemleri\n🛡️ Adversarial Dayanıklılık &amp; Red-Teaming \n🗄️ MLOps – CI/CD, Feature Store &amp; Model İzleme\n📉 Zaman Serisi &amp; Anomali Tespiti \n🧬 Sentetik Veri Üretimi \n♻️ Enerji AI &amp; Karbon Optimizasyonu \n⚛️ Kuantum Destekli Makine Öğrenmesi \n💻 Çok-Düğümlü HPC &amp; Dağıtık GPU Eğitimleri\n\nÖzel danışmanlık, proje ve eğitim çözümleri için iletişime geçebilirsiniz."},"profile_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/9ca0018b-4a12-4ce8-9002-b0a39a5d9bbf.PNG","updated_at":"2026-01-21T09:42:39.506050+00:00","id":6,"created_at":"2025-05-28T06:59:05.900828+00:00","name":"Şükrü Yusuf Kaya","title":{"en":"Senior Artificial Intelligence Engineer · Consultant · Trainer","tr":"Kıdemli Yapay Zeka Mühendisi · Danışman · Eğitmen"},"bogazici":false,"order":2}}],"category":{"id":7,"updated_at":"2026-01-21T08:33:28.944427+00:00","deleted_at":null,"parent_id":null,"created_at":"2025-04-21T18:52:41.237286+00:00","name":{"en":"Big Data","tr":"Big Data (Büyük Veri)"},"order":1},"course_group":{"role":"Hızlandırılmış","course_id":5,"id":21,"group_id":3,"order":8},"instances":[],"future_instances":[]},"instance":null,"current_user":null,"corporate":false}