{"course":{"updated_at":"2026-03-07T18:48:37.367033+00:00","title":{"en":null,"tr":"Big Data (Büyük Veri) Bootcamp"},"duration_hours":90,"available_as_corporate":true,"cover_image_url":"https://lively-leaf-6126.fly.storage.tigris.dev/f43e43c3-9f1b-485f-9a3b-2bd6bbfc3401.png","order":4,"deleted_at":null,"duration_days":null,"video_conference_link":null,"hidden":true,"category_id":7,"short_title":{"en":null,"tr":null},"level":null,"bogazici_link":null,"cover_image_x":50,"suggested_next_course_id":null,"id":36,"slug":{"tr":"big-data-buyuk-veri-bootcamp"},"schedule_info":{"en":null,"tr":null},"available_as_personal":true,"cover_image_y":50,"summary":{"en":null,"tr":null},"bogazici_collab":false,"is_workshop":false,"corporate_cover_image_url":null,"lesson_count":0,"sidebar_copy":{"en":null,"tr":null},"price_try":4500000,"has_lessons":false,"corporate_cover_image_x":50,"created_at":"2025-07-08T09:18:07.274366+00:00","description":{"en":null,"tr":[{"type":"text","title":"Kurs Açıklaması","content":"<p><strong>Veri Mühendisliğinde Uzmanlaşın: Temellerden Modern Mimarilere Uçtan Uca Büyük Veri Yolculuğu</strong></p><p>Verinin en değerli kaynak olduğu günümüz dünyasında, bu verileri işleyebilen, depolayabilen ve değere dönüştürebilen profesyonellere olan talep hiç olmadığı kadar yüksek.</p><p>Bu kapsamlı kurs, sizi <strong>Büyük Veri dünyasının temellerinden alıp, en modern bulut tabanlı veri platformlarını tasarlayıp yönetecek ileri düzey yetkinliklere</strong> taşıyor. İlişkisel veritabanlarından NoSQL'e, HDFS'ten bulut depolamaya (AWS/Azure), Batch işlemeden gerçek zamanlı akışa (Spark &amp; Kafka), Data Lake'lerden Lakehouse mimarilerine kadar <strong>tüm kritik konuları derinlemesine ve uygulamalı olarak</strong> ele alıyoruz.</p><p>Sadece teoride kalmayacak; <strong>Docker, Terraform (IaC), Apache Spark, Kafka, Airflow gibi endüstri standardı araçlarla laboratuvarlarda pratik deneyim</strong> kazanacak, veri boru hatları (pipelines) kuracak, optimize edecek ve operasyonel hale getireceksiniz. Veri kalitesi, güvenlik, yönetişim ve maliyet optimizasyonu gibi <strong>gerçek dünya zorluklarına çözümler üretebilen, aranan bir Veri Mühendisi olmak için gereken her şeyi</strong> bu kursta bulacaksınız. Kariyerinizde bir sonraki adımı atmaya hazırsanız veya bu konuda çalışıyor ve daha da yetkin hale gelmek istiyorsanız bu yolculuk tam da size göre!</p>"},{"type":"text","title":"Kursun Amacı","content":"<p>Bu kursun temel amacı, katılımcılara modern veri ekosisteminde başarılı bir Veri Mühendisi olmak için gereken <strong>teorik bilgiyi, pratik becerileri ve stratejik bakış açısını kazandırmaktır. </strong>Kurs sonunda katılımcılar şunları yapabiliyor olacaktır:</p><ul class=\"tight\" data-tight=\"true\"><li><p>Büyük Veri kavramlarını (5V), yaşam döngüsünü ve modern veri mimarilerine (Data Lake, Lakehouse, Lambda/Kappa) <strong>hakim olacak ve sistem tasarımları yapabilecek</strong>.</p></li><li><p>İlişkisel (SQL) ve NoSQL veritabanı sistemlerini <strong>anlayacak, modelleyecek ve projelerine entegre edebilecek</strong>.</p></li><li><p>AWS/Azure gibi lider bulut platformlarında <strong>altyapıyı kod (IaC - Terraform) ile kurup yönetebilecek</strong>, temel bulut hizmetlerini (depolama, işlem) etkin bir şekilde <strong>kullanabilecek</strong>.</p></li><li><p>Hadoop ekosistemini (HDFS, Hive) ve modern depolama formatlarını (Parquet, Avro) <strong>anlayacak ve uygulayabilecek</strong>.</p></li><li><p>Apache Spark kullanarak büyük veri kümelerini <strong>etkin bir şekilde işleyebilecek (DataFrame API, Spark SQL), optimize edebilecek ve yönetebilecek</strong>.</p></li><li><p>Apache Kafka ve Spark Structured Streaming gibi teknolojilerle <strong>gerçek zamanlı veri akışlarını işleyebilecek sistemler tasarlayabilecek ve kurabilecek </strong>.</p></li><li><p>Veri alımı (ETL/ELT), orkestrasyon (Airflow/Bulut Araçları) ve veri boru hattı(pipeline) yönetimi süreçlerini <strong>tasarlayabilecek ve uygulayabilecek</strong>.</p></li><li><p>Veri kalitesi, güvenlik, yönetişim prensiplerini <strong>anlayacak ve büyük veri sistemlerine entegre edebilecek </strong>.</p></li><li><p>Büyük veri platformlarını <strong>izleyebilecek, test edebilecek, CI/CD süreçlerini uygulayabilecek ve maliyet optimizasyonu yapabilecek </strong>.</p></li><li><p>Uçtan uca bir büyük veri projesini <strong>tasarlayıp hayata geçirebilecek yetkinliğe ulaşacak</strong>.</p></li></ul><p></p>"}]},"discount_try_percentage":null,"show_price":false,"corporate_cover_image_y":50,"sections":{"en":null,"tr":[{"title":"Büyük Veri Temelleri ve İlişkisel Veri Sistemleri","summary":"<h3>Büyük Veri Nedir?</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Büyük Veri Tanımı ve Özellikleri (5V - Hacim, Hız, Çeşitlilik, Doğruluk, Değer)</p></li><li><p>Hangi Veri \"Büyük Veri\"dir?</p></li><li><p>Hangi iş süreçlerinde kullanılır?</p></li></ul><h3>Büyük Veri Yaşam Döngüsü</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Alımı → Depolama → İşleme → Analiz → Sunum → Yönetişim</p></li></ul><h3>İlişkisel Veri Tabanlarına Giriş</h3><ul class=\"tight\" data-tight=\"true\"><li><p>İlişkisel Veri Modeli Temelleri</p></li><li><p>SQL Temel İşlemleri (SELECT, JOIN, GROUP BY, WHERE)</p></li><li><p>Normalizasyon (1NF, 2NF, 3NF) Kavramları ve Önemi</p></li><li><p>ACID Özellikleri ve Önemi</p></li></ul><h3>Veri Mimarilerinin Evrimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veritabanı → Veri Deposu →Data Lake → Lakehouse Mimarileri</p></li><li><p>Lambda &amp; Kappa Mimarileri (Bağlam &amp; Önemi)</p></li></ul><h3>Dağıtık Sistemler Temelleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Tek bir süper bilgisayarda yapmak yerine neden dağıtık sistemler?</p></li><li><p>CAP Teoremi, BASE Kavramı ve Uygulamadaki Anlamları</p></li></ul><h3>Bulut Geliştirme Ortamı Kurma (AWS/Azure Odaklı)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut Konsoluna Giriş &amp; IAM Temelleri&nbsp;&nbsp;</p></li><li><p>CLI Kurulumu</p></li><li><p>Kod Olarak Altyapı (IaC) Temelleri (Terraform/CloudFormation)</p></li><li><p>Docker Temelleri</p></li></ul><h3>Laboratuvar 1</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Docker’da basit dağıtık (HDFS + Spark) ve MySQL ortamı kurmak</p></li><li><p>MinIO ile yerel “S3” deneyi</p></li><li><p>Terraform ile AWS S3 oluşturmak</p></li><li><p>IaC ile temel bulut depolaması sağlamak</p></li></ul><p></p>"},{"title":"Petabaytları Depolama: On-Prem ve Bulut Çözümler","summary":"<h3>Geleneksel (On-Premise) Veri Depolama Çözümleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Yerel Dosya Sistemleri (HDFS - Hadoop Distributed File System)</p></li><li><p>Hadoop Temelleri ve Ekosistemi</p></li><li><p>Hadoop Cluster (YARN) Kurulumu ve Yönetimi</p></li><li><p>Hadoop Ekosistem Araçları (HDFS, Hive, HBase)</p></li></ul><h3>Bulut Temelleri ve Altyapı Kurulumu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS/Azure/GCP Temelleri, Konsol ve CLI Kullanımı</p></li><li><p>Altyapıyı Kod Olarak Yönetme (Terraform, CloudFormation)</p></li></ul><h3>Bulutta Nesne Depolama Hizmetleri</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS S3, Azure Data Lake Storage (ADLS), Google Cloud Storage (GCS)</p></li><li><p>Depolama Türleri, Fiyatlandırma ve Yaşam Döngüsü Yönetimi</p></li><li><p>Erişim Yönetimi, Güvenlik (IAM, Erişim Kontrolü)</p></li></ul><h3>Büyük Veri için Veri Formatları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>CSV, JSON formatı ve kısıtlamaları</p></li><li><p>Sütun-Bazlı Depolama Formatları: Parquet, ORC</p></li><li><p>Serileştirme ve Veri Evrimi (Avro, Protobuf)</p></li></ul><p></p>"},{"title":"NoSQL ve Lakehouse Mimarisi","summary":"<h3>NoSQL Veritabanları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>NoSQL Nedir? Ne Zaman Tercih Edilir? (CAP ve BASE Bağlantısı)</p></li><li><p>Anahtar-Değer Depoları (DynamoDB, Redis vb.)</p><ul class=\"tight\" data-tight=\"true\"><li><p>Kullanım durumları, modelleme, ölçeklendirme</p></li></ul></li><li><p>Doküman Tabanlı Depolar (MongoDB, Cosmos DB)</p><ul class=\"tight\" data-tight=\"true\"><li><p>kullanım durumları, esnek şema</p></li></ul></li><li><p>Sütun-Ailesi Depoları (Cassandra, HBase)</p><ul class=\"tight\" data-tight=\"true\"><li><p>Write-heavy, zaman serisi</p></li></ul></li><li><p>Grafik ve Zaman Serisi Veritabanlarına Kısa Bakış</p></li></ul><h3>Lakehouse Mimarisi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Data Lake vs Data Warehouse vs Lakehouse</p></li><li><p>Delta Lake, Apache Iceberg, Apache Hudi Temelleri</p></li><li><p>ACID, Schema Evolution, Time Travel</p></li></ul><h3>Laboratuvar 2</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut depolamada verileri Parquet’e alma ve dönüştürme</p></li><li><p>Temel NoSQL etkileşimleri</p></li><li><p>Basit bir Delta Lake tablosu uygulaması</p></li></ul><p></p>"},{"title":"Veri Alımı, Orkestrasyon ve ETL/ELT Süreçleri","summary":"<h3>Veri Alımı Stratejileri (Data Ingestion)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Batch Alım vs Streaming Alım</p></li><li><p>ETL ve ELT Farkları</p></li><li><p>CDC (Change Data Capture) Yaklaşımları (Debezium)</p></li><li><p>API Tabanlı Alım</p></li></ul><h3>Alım Araçları ve Teknolojiler</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Sqoop, Flume</p></li><li><p>Apache Kafka ve Kafka Connect</p></li><li><p>Bulut Araçları (AWS Glue, Azure Data Factory, GCP Dataflow)</p></li></ul><h3>Veri Orkestrasyonu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Orkestrasyon nedir?</p></li><li><p>Neden orkestre edilmeli?</p></li><li><p>Apache Airflow Kavramları (DAG, Operatörler, Hata Yönetimi)</p></li><li><p>Bulut Orkestrasyon Araçları (AWS Step Functions, Azure Data Factory Pipelines)</p></li><li><p>Bağımlılıklar, hata yönetimi, yeniden denemeler, izleme</p></li></ul><h3>Veri Boru Hatları için Kod Olarak Altyapı (IaC)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Terraform / CloudFormation / ARM Şablonlarını Kullanma</p></li><li><p>Veri kaynaklarını yönetme (Depolama, Hesaplama,</p></li><li><p>Altyapı için sürüm kontrolü</p></li></ul><h3>Laboratuvar 3</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut hizmetlerini (örn. ADF/Glue) kullanarak bir ELT boru hattı oluşturma</p></li><li><p>Veri dönüşümleri yapmak</p></li><li><p>IaC ile tanımlanan Airflow veya Step Functions ile orkestrasyon</p></li></ul><p></p>"},{"title":"Veri İşlemek İçin Apache Spark","summary":"<h3>Spark Mimarisi &amp; Temel Kavramlar</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Temel Kavramlar (Driver, Executor, Cluster Manager)</p></li><li><p>RDD, DataFrame ve Dataset Kavramları</p></li><li><p>Catalyst Optimizer &amp; Tungsten</p></li><li><p>Lazy Evaluation</p></li></ul><h3>Spark SQL &amp; DataFrame API</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Farklı kaynakları okuma/yazma (Parquet, Delta, JDBC, NoSQL)</p></li><li><p>SQL sorguları &amp; DataFrame işlemleri</p><ul class=\"tight\" data-tight=\"true\"><li><p>Select</p></li><li><p>Filter</p></li><li><p>Join</p></li><li><p>GroupBy, Aggregate, Window Fonksiyonları</p></li></ul></li><li><p>Kullanıcı Tanımlı Fonksiyonlar (UDF’ler)</p></li></ul><h3>Spark Performans Ayarları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Partitioning, Shuffling ve Join Stratejileri</p></li><li><p>Cache ve Persistence Yöntemleri</p></li><li><p>Spark UI kullanımı ve optimizasyonu</p></li></ul><h3>Bulutta Spark Yönetimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS EMR, Azure Databricks, GCP Dataproc Kullanımı ve Yönetimi</p></li><li><p>Spark Cluster Ayarlama ve Optimizasyonu</p></li></ul><h3>Laboratuvar 4.1</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Gerçek hayat verileri üzerinde Spark SQL &amp; DataFrame API ile kapsamlı uygulama</p></li></ul><h3>Laboratuvar 4.2</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Yönetilen bulut hizmetinde Spark görevlerini dağıtma, izleme ve temel ayarlamalar yapma</p></li></ul><p></p>"},{"title":"Gerçek Zamanlı Akan Veri İşleme (Streaming)","summary":"<h3>Gerçek Zamanlı Veri İşleme Kavramları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Event Time, Processing Time, Windowing ve Watermarking</p></li><li><p>Veri İşleme Garantileri (Exactly-once, At-least-once)</p></li></ul><h3>Streaming Platformları ve Kafka</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Apache Kafka Detaylı Bakış (Broker, Topic, Partition, Offset, Consumers)</p></li><li><p>Bulut Platformları (AWS Kinesis, Azure Event Hubs, GCP Pub/Sub)</p></li></ul><h3>Spark Structured Streaming</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Spark Streaming ve Structured Streaming Kavramları</p></li><li><p>DataFrame API</p></li><li><p>Mikro-batch ve Continuous Processing Farkları</p></li><li><p>Streaming Verinin Bulutta Yönetimi (Kafka → Spark → Depolama)</p></li><li><p>Sources &amp; Sinks (Kafka, Dosyalar, Bulut Akışları, Delta Lake)</p></li><li><p>Checkpoint oluşturma &amp; hata toleransı</p></li></ul><h3>Apache Flink’e Giriş (Karşılaştırmalı Genel Bakış)</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Düşük gecikmeli akışa odaklanma</p></li><li><p>Spark Streaming’den temel kavramsal farklar</p></li></ul><h3>Laboratuvar 5.1</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Kafka veya bulut akış hizmetini (Kinesis/Event Hubs/PubSub) kurma ve etkileşim oluşturma</p></li></ul><h3>Laboratuvar 5.2</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Spark Yapılandırılmış Akış görevi oluşturma (okuma, dönüştürme, pencereleme, yazma)</p></li><li><p>Watermarking &amp; checkpointing uygulama</p></li></ul><p></p>"},{"title":"Veri Kalitesi, Güvenlik ve Yönetişim","summary":"<h3>Veri Kalitesi Yönetimi</h3><ul><li>Veri Kalitesi Boyutları (Doğruluk, Tutarlılık, Tamlık vb.)</li><li>Veri Kalitesi Araçları (Great Expectations, Deequ)</li></ul><h3>Veri Yönetişimi Temelleri</h3><ul><li>Metadata Yönetimi ve Veri Kataloğu (AWS Glue Catalog, Azure Purview)</li><li>Veri Kökeni (Lineage) Kavramı ve Uyumluluk (GDPR, CCPA)</li></ul><h3>Büyük Veri Güvenliği</h3><ul><li>Kimlik Doğrulama ve Yetkilendirme (IAM, RBAC)</li><li>Veri Gizliliği Teknikleri (Anonimleştirme, Takma İsimlendirme)</li><li>Şifreleme (Veri Saklarken ve Taşırken)</li></ul><p></p>"},{"title":"Veriyi Sunma - Analitik & BI Entegrasyonu","summary":"<h3>Büyük Veri Analitiği Araçları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Dağıtık SQL Motorları (Presto, Trino, AWS Athena, Google BigQuery)</p></li><li><p>Bulut Veri Depoları (AWS Redshift, Azure Synapse, Google BigQuery)</p></li></ul><h3>Modern Bulut Veri Deposusu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>AWS Redshift / Azure Synapse Dedicated SQL / Google BigQuery</p></li><li><p>MPP mimarisi, sütun depolama, dağıtım, WLM</p></li><li><p>Lakehouse’dan yükleme</p></li><li><p>Veri deposu kullanımı vs. lake sorgulama zamanı</p></li></ul><h3>İş Zekası (BI) Araçları ile Entegrasyon</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Tableau, Power BI, Looker ve AWS QuickSight Bağlantısı</p></li><li><p>DirectQuery ve Veri İçe Aktarma Stratejileri</p></li><li><p>Sorgu motoru uç noktaları (Athena, Synapse, BigQuery, Databricks SQL)</p></li></ul><h3>Veri API’si ve Sunum Katmanlarına Giriş</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Basit veri sunumu için sunucusuz fonksiyonları (Lambda/Azure Functions) kullanma</p></li></ul><h3>Laboratuvar 6</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Athena/Synapse Serverless/BigQuery kullanarak Lakehouse verisini sorgulama</p></li><li><p>Bir BI aracını bağlama</p></li><li><p>Basit bir sunucusuz veri API’si oluşturma</p></li></ul><p></p>"},{"title":" Büyük Veri Pipeline Operasyonelleştirme","summary":"<h3>İzleme, Günlükleme ve Alarm Yönetimi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Dağıtık izleme kavramları</p></li><li><p>Boru hatları için ana metrikler (Spark, Kafka, Depolama, Sorgu Motorları)</p></li><li><p>Bulut İzleme Araçları (CloudWatch, Azure Monitor, Google Monitoring)</p></li><li><p>Dağıtık Sistemlerde Loglama ve Uyarılar</p></li></ul><h3>Veri Boru Hatlarını Test Etme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Birim testi (Spark)</p></li><li><p>Entegrasyon test aşamaları</p></li><li><p>Veri doğrulama testi (Veri kalitesi entegrasyonu)</p></li><li><p>Test veri stratejileri &amp; canary dağıtımlar</p></li></ul><h3>CI/CD Yaklaşımları</h3><ul class=\"tight\" data-tight=\"true\"><li><p>GitHub Actions, GitLab CI, Jenkinsve ve Azure DevOps ile Sürekli Entegrasyon ve Teslimat</p></li><li><p>Test Stratejileri ve Ortam Yönetimi (Development, Stage, Production)</p></li></ul><h3>Maliyet Yönetimi ve Optimizasyonu</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Bulut Hizmetleri Maliyetlendirme Modelleri</p></li><li><p>Kaynak Optimizasyonu (Reserved Instance, Spot Instance)</p></li><li><p>Depolama katmanı optimizasyonu</p></li><li><p>Maliyet izleme araçları &amp; bütçeleme</p></li><li><p>Sorgu maliyeti optimizasyonu</p></li></ul><h3>Laboratuvar 7</h3><ul class=\"tight\" data-tight=\"true\"><li><p>İşleri ve metrikler günlüklerle enstrümante etme</p></li><li><p>Uyarılar oluşturma</p></li><li><p>Temel bir CI/CD pipeline oluşturma</p></li><li><p>Örnek bir iş yükü için maliyet optimizasyonlarını analiz etme ve önerme</p></li></ul><p></p>"},{"title":"Güncel Trendler ve Kariyer","summary":"<h3>Yeni Trendler</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Mesh Konsepti ve Uygulamaları</p></li><li><p>MLOps ve Özellik Mağazaları (Feature Store)</p></li><li><p>Vektör Veritabanları ve Yapay Zeka Bağlantısı</p></li></ul><h3>Kariyer ve Sürekli Öğrenme</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Veri Mühendisliği Kariyer Yolları</p></li><li><p>Sürekli Öğrenme Stratejileri ve Kaynakları</p></li></ul><p></p>"},{"title":"Capstone Projesi (Bitirme Projesi)","summary":"<h3>Uçtan Uca Büyük Veri Projesi</h3><ul class=\"tight\" data-tight=\"true\"><li><p>Gerçek Hayat Senaryosu ile Veri Alımı, Depolama, İşleme, Analitik ve Görselleştirme</p></li><li><p>IaC, CI/CD, Güvenlik, İzleme, Maliyet Optimizasyonu Entegrasyonu</p></li><li><p>Proje Dokümantasyonu ve Demo/Sunum</p></li></ul><p></p>"}]},"published_at":"2025-11-12T13:57:51.248623+00:00","promotional_video_url":null,"units":[],"course_instructors":[],"category":{"id":7,"updated_at":"2026-01-21T08:33:28.944427+00:00","deleted_at":null,"parent_id":null,"created_at":"2025-04-21T18:52:41.237286+00:00","name":{"en":"Big Data","tr":"Big Data (Büyük Veri)"},"order":1},"course_group":{"role":"Bootcamp","course_id":36,"id":28,"group_id":3,"order":9},"instances":[],"future_instances":[]},"instance":null,"current_user":null,"corporate":false}