Antigravity Platformunun Ajan Odaklı Paradigmasını Anlamak
Google Antigravity'yi geleneksel entegre geliştirme ortamlarından temel bir kopuş olarak görüyorum. Otonom ajanların planlama ve uygulama gibi ağır işleri üstlendiği bir görev kontrol merkezi olarak işlev görür. Bu platformla etkileşime girdiğimde sadece kod yazmıyorum; kendi işlerini doğrulamak için editörde gezinebilen, terminale komut verebilen ve web'de arama yapabilen bir dijital varlık ekibini yönetiyorum. Bu deneyimin özünde **Uygulama Planı** ve **Görev Listesi** gibi yapıtların kullanımı yer alıyor. Bunlar sadece doküman değil; sözdiziminde kaybolmadan denetimi sürdürmenizi sağlayan mantıksal kontrol noktalarıdır. Manuel girdiden ajan denetimine geçiş bir zihniyet değişimi gerektiriyor. Her taşı yerine koyan bir duvar ustasından ziyade projeleri onaylayan bir mimara dönüşüyorsunuz. Platform bu faaliyetleri birleştirmek için uzmanlaşmış bir **Ajan Yöneticisi** arayüzü kullanıyor ve bir özelliğin tüm yaşam döngüsünü tek bir görünümde görünür ve yönetilebilir kılıyor. Editör ve Ajan Yöneticisi arasında geçiş yapmak `Cmd+E` tuşuna basmak kadar hızlıdır; Ajan Yöneticisi içinde terminal panelini açmak ise hızlıca `Cmd/Ctrl+J` yapmayı gerektirir. Ajan sizin adınıza farklı araçlar arasındaki durumu koruduğu için bu yaklaşımın bağlam değiştirme ile ilgili bilişsel yükü azalttığını düşünüyorum. İçselleştirmemin zaman aldığı bir detay var; ajan sadece geliştirilmiş bir otomatik tamamlama aracı değildir. Projenizi okur, mimarinizi anlar, bir plan önerir ve ardından bu planı dosyalar, terminaller, hatta bir tarayıcı örneği üzerinde yürütür. Sizin rolünüz denetlemektir. Uygulama Planı'nı incelersiniz, onaylar veya reddedersiniz; ajan de buna göre devam eder. Bu geri bildirim döngüsü, Antigravity platformunu kullandığım diğer tüm kod asistanlarından ayırıyor.
Hızlı Başvuru
Ajan Yöneticisi editörden kopuk hissettiriyor
Ne zaman müdahale edeceğinizden veya ne zaman ajanı kendi haline bırakacağınızdan emin değilsiniz
Oturumlar arasında bağlam kaybolmuş gibi hissettiriyor
Editör ve Ajan Yöneticisi arasında anında geçiş yapmak için Cmd+E kısayolunu kullanın
Herhangi bir yürütmeyi onaylamadan önce Uygulama Planı yapıtını inceleyin
Bağlamı temiz tutmak için yeni özelliklere yeni oturumlarla başlayın
Çoklu Ajan Kullanımına Alışmak
Günlük geliştirme döngümdeki en derin değişimlerden biri çoklu ajan iş akışını benimsemektir. Antigravity aynı anda birden fazla görevi yerine getirme alışkanlığını temelden destekler ve ana editörünüzü engellemeden paralel işlemler yürütmenize olanak tanır. Bir ajana uzun soluklu ve kapsamlı bir görev atadığımda çıktıyı bekleyerek boş durmuyorum. Hemen başka bir ajan üzerinden işlem başlatıyor veya kod tabanının farklı bir bölümüne odaklanıyorum. Bu yetenek üçüncü taraf zekasını entegre ederken parlıyor. Antigravity VSCode temeli üzerine inşa edildiğinden "Codex - OpenAI's coding agent" adlı resmi eklentiyi yükledim. Bu durum GPT-5.4 gibi en güçlü amiral gemisi modellerini Gemini ile aynı ortamda kullanmamı sağlıyor. OpenAI'ın amiral gemisi modelleri ağır uygulama görevleri için inanılmaz derecede yeteneklidir ancak çıktı üretme konusunda Gemini'a kıyasla bazen daha yavaş kalabilir. Codex karmaşık bir özelliği uygularken ben yerel Gemini ajanını dokümantasyon taslağı hazırlamak veya ayrı bir hizmeti yeniden yapılandırmak için kullanıyorum. Aslında iki büyük rakibi tek bir çalışma alanında birleştirmiş oluyorum. Sıklıkla kullandığım pratik bir desen aynı proje için farklı roller atamayı içerir. Gemini'ın hızından ve derin depo takibinden yararlanarak ilk mimari planlamayı ve kod incelemesini ona atıyorum. Plan onaylandıktan sonra ağır uygulama aşamasını Codex ajanına devrediyorum. Bu çift ajan stratejisi hızlı planlama ve titiz yürütme sağlayarak genel verimimi önemli ölçüde artırıyor.
Hızlı Başvuru
Uzun süren ajan görevlerini beklemek geliştirme hızını kesiyor
Daha yavaş çalışan modeller ana iş akışını engelliyor
Planlama ve kodlama için farklı türde akıl yürütme becerilerine ihtiyaç duyuyorsunuz
İlk ajan işlem yaparken yeni bir editör sekmesi açın ve ikinci bir ajan başlatın
Ağır uygulama görevlerini Gemini ile paralel olarak yürütmek için resmi Codex eklentisini yükleyin
Hızlı mimari incelemeleri Gemini'a devredin ve derinlemesine kod uygulamasını Codex'e atayın
Optimize Edilmiş İş Akışları İçin Stratejik Model Seçimi
Antigravity'nin etkinliğinin eldeki özel görev için seçtiğiniz modele büyük ölçüde bağlı olduğunu gözlemledim. Nisan 2026 itibarıyla platform **Google Vertex Model Garden** aracılığıyla seçilmiş bir zeka havuzuna erişim sağlıyor. Bu, kendi anahtarınızı getirdiğiniz bir yapılandırma değil; Antigravity ortamda sunulan entegre modellere güveniyor. Karmaşık yeniden yapılandırmalar veya mimari kararlar için derin akıl yürütmeye ihtiyaç duyduğumda genellikle **Gemini 3.1 Pro** modelini seçiyorum. Bu model, büyük bir kod tabanındaki karmaşık bağımlılıkları anlamak için gereken bilişsel derinliğe sahiptir. Diğer yandan hızlı döngüler ve birim testleri için **Gemini 3.1 Flash** modelini tercih ediyorum çünkü hızı çok daha hızlı bir geri bildirim döngüsü sağlıyor. Vertex aracılığıyla sunulan üçüncü taraf modelleri kullanmanın da değerli olduğunu düşünüyorum. **Claude Opus 4.6** kurumsal ajan iş akışları için derin ve sürdürülebilir akıl yürütmede öne çıkıyor. **GPT-OSS** (hem 120B hem de daha hafif olan 20B varyantı) çıkarım yığını üzerinde tam kontrole ihtiyaç duyduğunuz projeler için açık ağırlıklı esneklik sunuyor. Antigravity ayarlar kısmında modelleri için **Yüksek** ve **Düşük** varyantlar sunar. Bu varyantların kontrol ettiği kesin parametreler (düşünme derinliği, jeton limitleri, araç çağırma önceliği) tek bir resmi şartname olarak yayınlanmamıştır; bu nedenle çıktı kalitesi ile yanıt hızı arasındaki doğru dengeyi bulmak için her ikisini de özel iş yükünüzde test etmenizi öneririm. Gemini API'sini doğrudan kullanırken **düşünme düzeyi** parametrelerini ayarlamanızı da tavsiye ediyorum. `thinking_level` değerini varsayılan yerine `MEDIUM` olarak ayarlamak kapsamlı bir düşünce zinciri gerektirmeyen görevlerde gecikmeyi önemli ölçüde azaltırken yüksek kalitede çıktı üretmeye devam edebilir.
Hızlı Başvuru
Model basit görevlerde yavaş yanıt veriyor
Daha hızlı modelle çıktı kalitesi düşüyor
Belirli bir görev için hangi modeli seçeceğinizden emin değilsiniz
Rutin işler için Gemini Flash modeline geçin veya düşünme düzeyini MEDIUM olarak ayarlayın
Mimari kararlar ve karmaşık yeniden yapılandırmalar için Gemini 3.1 Pro (Yüksek) kullanın
Maliyetin ikinci planda olduğu derin analitik incelemeler için Claude Opus 4.6 modelini ayırın
Performans Ayarı ve Gecikme Yönetimi
Yavaş bir editörün yaratıcı akışınızı bozabileceğini biliyorum; bu yüzden Antigravity kurulumumda performans optimizasyonuna öncelik veriyorum. Zamanla bunu her yeni projeye uyguladığım beş adımlı bir metodolojiye dönüştürdüm. ### Birinci Adım Doğru Modu Seçin **Hızlı Mod** yerel değişiklikler için ayrıntılı planlamanın getirdiği yükü baypas etmek üzere tasarlanmıştır. Bunu hızlı düzeltmeler, küçük yeniden yapılandırmalar ve tek dosya düzenlemeleri için gerekli buluyorum. Küçük görevlerde gecikme yaşıyorsanız Planlama modundan Hızlı moda geçmek genellikle gecikmeyi tamamen ortadan kaldırır. ### İkinci Adım Hıza Uygun Bir Model Belirleyin Gemini Flash yüksek veri geçişi için özel olarak üretilmiştir. Antigravity'nin kendi belgeleri, Flash modelinin ajan iş akışlarında daha hızlı planlama ve uygulama döngüleri ürettiğini vurguluyor. Hız derin akıl yürütmeden daha önemli olduğunda çözüm Flash'tır. ### Üçüncü Adım Konuşma Uzunluğunu Yönetin Diyalog büyüdükçe ajanın işlemesi gereken veri miktarı artar ve bu durum yanıtlama hızında fark edilir bir düşüşe neden olur. Yeni özellikler için yeni oturumlar başlatmayı alışkanlık haline getiriyorum. Bir oturumda çok fazla geçmiş biriktiğinde ajandan mevcut ilerlemeyi madde işaretli bir özet haline getirmesini istiyorum; ardından sadece bu özeti bağlam olarak kullanarak yeni bir konuşma başlatıyorum. ### Dördüncü Adım MCP ve Entegrasyon Yükünü Ayrıştırın Sorunlu veya ağır MCP sunucuları büyük el sıkışma veya komut dizileri aracılığıyla kararsızlık yaratabilir. Gecikme teşhisi yaparken önce tüm MCP sunucularını devre dışı bırakıyorum ve temel bir test (basit bir "Merhaba" mesajı) çalıştırıyorum. Gecikme ortadan kalkarsa suçluyu bulmak için sunucuları tek tek yeniden etkinleştiriyorum. ### Beşinci Adım Yerel Kaynak Baskısını Azaltın Antigravity yerel olarak çalışan bir masaüstü uygulamasıdır. Büyük depoları dizine eklemek, arka planda telemetri çalıştırmak ve kullanılmayan entegrasyonları sürdürmek işlemciyi tüketir. Ajanın kapsamını belirli dizinlerle sınırlandırıyorum, ayarlardan telemetriyi kapatıyorum ve aktif olarak kullanmadığım eklentileri sonlandırıyorum. Bulut modelleriyle çalışırken en yüksek kullanılabilirliği ve mümkün olan en düşük gecikmeyi sağlamak için Vertex AI tarafından sunulan **küresel uç noktaları** kullanıyorum. Vertex küresel uç noktaların tek bölgeli uç noktalardan daha yüksek güvenilirlik sunduğunu açıkça belirtiyor.
Hızlı Başvuru
Güçlü bir makinede Antigravity yavaş hissettiriyor
Dizine ekleme sırasında CPU kullanımı %100'e fırlıyor
Konuşma büyüdükçe yanıt süreleri kötüleşiyor
MCP sunucularını devre dışı bırakın, temel bir test yapın ve ardından teker teker yeniden etkinleştirin
Tüm deponun dizine eklenmesini önlemek için ajanın kapsamını belirli dizinlerle sınırlandırın
Yeni oturumlar başlatın ve yalnızca madde işaretli bir özeti yeni oturuma taşıyın
Model Bağlam Protokolü ile Ajan Yeteneklerini Genişletmek
Antigravity'nin gerçek gücünün onu **Model Bağlam Protokolü (MCP)** aracılığıyla harici araçlarınıza ve veri kaynaklarınıza bağladığınızda ortaya çıktığına inanıyorum. Bu protokol ajanın kodunuz ile altyapınız arasında bir köprü görevi görmesini sağlar. Bu bağlantıları tanımlamak için `~/.gemini/antigravity/mcp_config.json` adresindeki `mcp_config.json` dosyasını kullanıyorum. Kullanıcı arayüzü yolu şöyledir: **Ayarlar > MCP Sunucularını Yönet > Ham yapılandırmayı görüntüle**. Uzmanlaşmış sunucular ekleyerek temsilcilerimin veritabanlarını sorgulamasını, dahili API'lerle etkileşime girmesini ve hatta bulut kaynaklarını doğrudan IDE üzerinden yönetmesini sağlıyorum. İşte iki sunucuyu (biri Google Geliştirici Bilgisi, diğeri n8n otomasyon iş akışı için) birbirine bağlayan pratik bir küresel MCP yapılandırması örneği: ```json { "mcpServers": { "google-developer-knowledge": { "serverUrl": "https://developerknowledge.googleapis.com/mcp" }, "n8n-mcp": { "command": "node", "args": ["path/to/n8n-mcp/dist/mcp/index.js"], "env": { "MCP_MODE": "stdio", "N8N_API_URL": "http://localhost:5678", "N8N_API_KEY": "YOUR_SECRET" } } } } ``` Yapılandırmanızdaki ortam değişkenleri ve komut argümanları konusunda titiz olmanızı öneririm. Bir yoldaki küçük bir yazım hatası veya eksik bir ortam değişkeni teşhis edilmesi zor sessiz bağlantı hatalarına neden olur. Antigravity temel akıl yürütme modelini Ollama gibi yerel alternatiflerle değiştirmenize izin vermese de yerel hizmetleri araç olarak çağırmak için hala MCP kullanabilirsiniz. Bu hibrit yaklaşım size yerel araç erişimiyle birlikte bulut modeli akıl yürütme yeteneği sağlar. Örneğin bir yerel dokümantasyon MCP sunucusu bağlıyorum; böylece ajan ben manuel olarak sağlamadan en güncel API özelliklerini çekiyor.
Hızlı Başvuru
MCP sunucusu bağlanıyor ancak hiç yanıt vermiyor
Ajan, MCP sunucusundan gelen araçları keşfedemiyor
Yerel hizmet entegrasyonu sessizce başarısız oluyor
mcp_config.json dosyasındaki ortam değişkenlerinin ve komut yollarının tamamen doğru olduğunu doğrulayın
Antigravity'ye bağlanmadan önce MCP sunucu günlüklerini bağımsız olarak kontrol edin
Yerel hizmetler için localhost URL'lerini kullanın ve başlatmadan önce çalıştıklarını onaylayın
Otonom İş Akışlarında Yönetişim ve Güvenlik
Otonom ajanların makinemde komut çalıştırmasına izin verirken güvenliği ciddiye alıyorum. Antigravity yeni bir projeye başlamadan önce her zaman yapılandırdığım birkaç koruma katmanı sunuyor. ### Terminal Güvenliği Terminal için **Katı Mod** özelliğini etkinleştirmenizi öneririm. Katı Mod aktif olduğunda yalıtım otomatik olarak devreye girer ve ajanın çalıştırdığı herhangi bir komut için ağ erişimi kısıtlanabilir. Bu durum hatalı bir betiğin yerel ortamınıza zarar verememesini veya verileri beklenmedik bir uç noktaya sızdıramamasını sağlar. Ajanı terminali veya dosya sistemini ilgilendiren herhangi bir eylemi gerçekleştirmeden önce **insan onayı** isteyecek şekilde de yapılandırabilirsiniz. Beklenmedik bir `rm -rf` komutunun maliyetinin felaket olacağı üretim projeleri için bunu açık tutuyorum. ### Tarayıcı Güvenliği Tarayıcı aracı bir **izin listesi** yaklaşımı kullanır. Varsayılan olarak izin listesi yalnızca `localhost` ile başlar. İzin listesi dışındaki herhangi bir URL kullanıcı onay istemini tetikler. İzin listemi localhost ve dahili dokümantasyon sunucularımla sınırlandırıyorum. Bu özellikle yerel hizmetleri MCP aracılığıyla entegre ederken önemlidir çünkü ajanın bir iş akışı sırasında güvenilmeyen harici sitelere göz atamamasını sağlar. ### Proje Düzeyinde Kurallar Ajanın uyması gereken kuralları tanımlamak için `AGENTS.md` dosyasını (veya `~/.gemini/` küresel yapılandırma dizinindeki `GEMINI.md` dosyasını) kullanıyorum. Bunlar "asla eval() kullanma", "HTTP yanıtlarına her zaman güvenlik başlıklarını ekle" veya "doğrulanmamış kayıt defterlerinden paket yükleme" gibi talimatlar içerebilir. Ajan her oturumun başında bu dosyaları okur ve bunları kesin kısıtlamalar olarak kabul eder. Bu proaktif önlemler geliştirme ortamımın bütünlüğünden ödün vermeden otomasyonun avantajlarından yararlanmamı sağlıyor.
Hızlı Başvuru
Ajan sormadan yıkıcı bir komut çalıştırıyor
Tarayıcı aracı beklenmedik harici URL'leri ziyaret ediyor
AGENTS.md içindeki güvenlik kuralları göz ardı ediliyor
Yalıtımı otomatik olarak etkinleştirmek için terminal ayarlarından Katı Mod'u açın
Tarayıcı izin listesini yalnızca localhost ve güvenilen dahili sunucularla sınırlı tutun
AGENTS.md dosyasının proje kökünde veya GEMINI.md dosyasının ~/.gemini/GEMINI.md konumunda olduğunu doğrulayın
Maliyet Optimizasyonu ve Kaynak Yönetimi
Üretken yapay zeka maliyetlerini yönetmenin her profesyonel geliştirici için bir öncelik olduğunu anlıyorum. Antigravity platformunda kredi tüketimimi ayarlardaki **Modeller** bölümünden izliyorum. Hesabımın belirli bir bütçeyi aşmasını önlemek için **AI Kredi Aşımları** özelliğini kullanıyorum. Bu durum özellikle kapsamlı akıl yürütme gerektiren büyük ölçekli projelerde çalışırken faydalıdır. ### Toplu İşleme Zaman hassasiyeti olmayan görevler için Vertex AI tarafından sunulan **toplu işleme** özelliklerinden yararlanıyorum. Gemini Geliştirici API'si toplu işler için gerçek zamanlı çıkarıma kıyasla **%50 maliyet indirimi** sunduğunu açıkça duyuruyor. Acil olmayan analizleri, dokümantasyon oluşturmayı veya test hazırlamayı toplu iş kuyruğuna alarak geliştirme hızımı etkilemeden jeton maliyetlerimi yarıya indiriyorum. ### Bağlam Önbelleğe Alma Vertex AI hem **örtük** hem de **açık** bağlam önbelleğe alma seçenekleri sunuyor. Birkaç gün boyunca tek bir depo üzerinde çalışıyorsam ana kod tabanını önbelleğe almak ajanın her seferinde tüm bağlamı yeniden işlemeden ona atıfta bulunmasını sağlar. Önbellek isabetleri hem gecikmeyi hem de maliyeti azaltır. Büyük bir ortak ön eki paylaşan istemler üzerinde çalışırken bunun özellikle etkili olduğunu gördüm. ### Çıkarım Kademeleri Nisan 2026 itibarıyla Gemini API; **Standart**, **Esnek** ve **Öncelikli** çıkarım kademelerini destekliyor. Standart varsayılandır. Esnek kademesi biraz daha yüksek gecikmeyi tolere edebilen iş yükleri için daha düşük fiyatlandırma sunar. Öncelikli kademesi ek ücret karşılığında en düşük gecikmeyi garanti eder. Arka plan işlemleri için Esnek kademesini, yalnızca gerçek zamanlı yanıta ihtiyaç duyduğumda ise Öncelikli kademesini kullanıyorum. ### İstem Disiplini Gereksiz jeton kullanımını önlemek için istemlerinizde net olmanızı öneririm. Açık ve öz bir talimat her zaman birden fazla deneme gerektiren belirsiz bir istekten daha uygun maliyetli olacaktır. Toplu işleme, önbelleğe alma, kademe seçimi ve istem disiplinini birleştirerek operasyonel giderleri makul bir aralıkta tutarken yüksek üretkenliğimi koruyorum. *Not: Bu kılavuzda atıfta bulunulan fiyatlandırma rakamları Nisan 2026 değerlerini yansıtır; güncel oranlar için her zaman resmi Vertex AI ve Gemini API fiyatlandırma sayfalarını kontrol edin.*
Hızlı Başvuru
Kredi tüketimi beklenmedik derecede yüksek hissettiriyor
Acil olmayan görevler için toplu iş modunu nasıl etkinleştireceğinizden emin değilsiniz
Bağlam önbelleğe alma maliyetleri düşürmüyor gibi görünüyor
Ayarlardaki Modeller bölümünü kontrol edin ve kesin bir bütçe sınırı belirlemek için AI Kredi Aşımları'nı etkinleştirin
Dokümantasyon, analiz ve test oluşturma işleri için Vertex AI Batch API'sini kullanın
Önbelleğin eşleşip isabet üretebilmesi için istemlerinizin tutarlı bir ön ek paylaştığından emin olun
Kalıcı Kurallar, İş Akışları ve Ajan Özelleştirme
Antigravity'de bulduğum en değerli özelliklerden birinin dosya tabanlı yapılandırma aracılığıyla kalıcı davranışlar tanımlama yeteneği olduğunu düşünüyorum. Her konuşmanın başında aynı talimatları tekrarlamak yerine tercihlerimi ajanın otomatik olarak okuduğu Markdown dosyalarına kodluyorum. ### Küresel Kurallar `~/.gemini/GEMINI.md` adresindeki dosya küresel bir talimat seti olarak işlev görür. Buraya yazdığım her şey Antigravity'de açtığım her proje için geçerlidir. Bunu kesişen endişeler için kullanıyorum: tercih ettiğim kodlama stili, güvenlik talimatları, taahhüt mesajı formatı ve test felsefesi. 1.20.3 sürümünden bu yana Antigravity `AGENTS.md` dosyasından da okuma yapıyor ve kurallarınızı düzenlemeniz için size ek bir dosya sunuyor. ### Çalışma Alanı Kuralları Projeye özel davranışlar için projemin kökündeki `.agents/rules/` dizininde Markdown dosyaları oluşturuyorum. Bu kurallar yalnızca o çalışma alanı için geçerlidir. Örneğin bir Python projesinde her işlev imzasında tür ipuçlarını zorunlu kılan bir kuralım olabilir. Bir React projesinde farklı bir kural sınıf bileşenleri yerine işlevsel bileşenlerin kullanılmasını zorunlu kılabilir. ### İş Akışları İş akışları `.agents/workflows/` dizininde bulunur ve ajanın belirli görevler için izlemesi gereken adım adım prosedürleri açıklar. Bunları dağıtım kontrol listeleri, kod inceleme protokolleri ve sürüm işlem hatları için kullanıyorum. Ajan siz onları çağırdığınızda bu iş akışlarına başvurabilir ve her adımı sırayla yürütebilir. ### Özelleştirme Hatası 2026'nın başlarında "Ajan Özelleştirmeleri" kullanıcı arayüzü panelinde çalışma alanlarını algılama ve kuralları/iş akışlarını doğru listeleme sorunları bildirildiğini belirtmeliyim. Bunu yaşarsanız kullanıcı arayüzünü tamamen atlayın ve `.agents/` dizin yapınızı doğrudan dosya sistemi üzerinden yönetin. Bu dosya tabanlı yaklaşım kullanıcı arayüzünün durumundan bağımsız olarak güvenilirdir.
Hızlı Başvuru
Ajan GEMINI.md dosyasında tanımladığım kuralları göz ardı ediyor
Özelleştirmeler paneli boş bir çalışma alanı gösteriyor
İş akışı adımları sırayla yürütülmüyor
GEMINI.md dosyasının proje klasörü içinde değil, ~/.gemini/GEMINI.md konumunda olduğunu doğrulayın
Kullanıcı arayüzünü atlayın ve .agents/rules/ ile .agents/workflows/ dizinlerini doğrudan dosya sistemi üzerinden yönetin
İş akışı adımlarınızı açıkça numaralandırın ve her biri için net tamamlama kriterleri ekleyin
Planlama Modu, Hızlı Mod ve Yapıt Yaşam Döngüsü
**Planlama Modu** ile **Hızlı Mod** arasındaki ayrımın deneyimlerime göre Antigravity'deki en etkili ayar olduğunu düşünüyorum. Bunu doğru yapmak her etkileşimin kalitesini, hızını ve öngörülebilirliğini belirliyor. ### Planlama Modu Planlama Modu karmaşık, çok dosyalı işlemler için varsayılan ayardır. Etkinleştirildiğinde ajan herhangi bir kod yazmadan önce yapılandırılmış yapıtlar üretir: - **Uygulama Planı**: Ne değişeceğine dair bileşen bazında düzenlenmiş ayrıntılı bir tekliftir. Ajan tek bir dosyaya bile dokunmadan önce bunu inceliyorum. - **Görev Listesi**: Plandan türetilen bir kontrol listesidir. Ajan çalışırken öğeleri devam eden ve tamamlanan olarak işaretler. - **İzlenecek Yol**: Yürütme sonrasında neyin neden değiştiğini özetler. Bunu kod incelemesi ve dokümantasyon için kullanıyorum. Bu yapıtlar bir özelliğin tüm yaşam döngüsünü tek bir görünümde görünür kılan bir **Görev Grubu** oluşturur. Planlama Modunun yeniden yapılandırma, yeni özellik geliştirme ve iki veya üçten fazla dosyayı kapsayan herhangi bir değişiklik için vazgeçilmez olduğunu düşünüyorum. ### Hızlı Mod Hızlı Mod planlama yükünü ortadan kaldırır. Uygulama Planı oluşturmayı atlar ve doğrudan yürütmeye geçer. Bunu tek dosyalık düzeltmeler, biçimlendirme değişiklikleri, hızlı sorular ve anında geri bildirim istediğim keşif amaçlı kodlamalar için kullanıyorum. Burada kilit bir nokta var; önemsiz görevler için Planlama Modunu kullanmayın. Yapıtları oluşturma ve inceleme yükü tek satırlık bir düzeltmede boşa harcanır. Tersine karmaşık yeniden yapılandırmalar için Hızlı Modu kullanmayın. Plan eksikliği parçalanmış değişikliklere ve gözden kaçan uç durumlara yol açar. ### İş Akışım Önemli her özelliğe Planlama Modunda başlıyorum, Uygulama Planını inceliyorum, onaylıyorum ve ajanın yürütmesine izin veriyorum. Ağır yapısal işler bittiğinde cila, biçimlendirme ve küçük ayarlamalar için Hızlı Moda geçiyorum. Bu iki aşamalı yaklaşım bana her iki yeteneğin de en iyi yönlerini sunuyor.
Hızlı Başvuru
Planlama yükü küçük değişiklikler için aşırı hissettiriyor
Ajan net bir yapı olmadan parçalanmış değişiklikler yapıyor
Görev listesi gerçek ilerlemeyi yansıtmıyor
Tek dosya düzenlemeleri, biçimlendirme ve hızlı sorular için Hızlı Moda geçin
İkiden fazla dosyayı kapsayan herhangi bir değişiklik için Planlama Modunu kullanın
Onaylamadan önce Uygulama Planını inceleyin; eksik teklifleri reddedin
Model Karşılaştırması, Fiyatlandırma ve Hangisinin Ne Zaman Kullanılacağı
Doğru modeli seçmek akıl yürütme derinliği, hız ve maliyeti dengeleyen stratejik bir karardır. Antigravity içindeki ve dışındaki her modelle olan deneyimime dayanarak pratik bir karşılaştırma derledim. ### Gemini 3.1 Pro Preview **En iyi olduğu alanlar:** Karmaşık otonom iş akışları, büyük depo yeniden yapılandırmaları, derin mimari akıl yürütme. **Risk:** Daha yüksek maliyet ve gecikme. Akıl yürütme düzeyi parametresinin basit görevlerde gereksiz yere aşırı düşünmeyi önlemek için ayarlanması gerekir. **Fiyatlandırma (Nisan 2026 itibarıyla Gemini Geliştirici API):** Milyon jeton başına girdi 2,00$ / çıktı 12,00$ (200k bağlama kadar). ### Gemini 3.1 Flash Preview **En iyi olduğu alanlar:** Hız odaklı kod asistanlığı, yüksek veri geçişi olan döngüler, hızlı prototipleme. **Risk:** Derinlemesine karmaşık çok adımlı akıl yürütme zincirlerinde Pro'nun kararlılığıyla eşleşmeyebilir. **Fiyatlandırma:** Milyon jeton başına girdi 0,50$ / çıktı 3,00$. ### Claude Opus 4.6 (Vertex aracılığıyla) **En iyi olduğu alanlar:** Derin akıl yürütme, kurumsal ajan iş akışları, sürdürülebilir analitik kodlama oturumları. **Risk:** Basit görevlerde "aşırı düşünmek" maliyeti ve gecikmeyi şişirir. Anthropic rutin işler için **çaba** parametresinin düşürülmesini önerir. **Fiyatlandırma (Vertex, bölgeye bağlı):** Yaklaşık olarak milyon jeton başına girdi 5,50$ / çıktı 27,50$. **Bağlam:** 1.000.000 girdi jetonu, 128.000 çıktı jetonu. ### GPT-OSS 120B (Vertex MaaS) **En iyi olduğu alanlar:** Açık ağırlıklı esneklikle uygun maliyetli akıl yürütme. **Risk:** Araç çağırma şeması hassastır; Harmony formatı dikkatli bir istem yapısı gerektirir. **Fiyatlandırma (Vertex):** Milyon jeton başına girdi 0,09$ / çıktı 0,36$. ### GPT-OSS 20B (Uç veya Vertex MaaS) **En iyi olduğu alanlar:** Uç çıkarımı, yerel dağıtım, minimum altyapı maliyeti. **Risk:** Donanım kısıtlamaları. MXFP4 nicelemesi ile yaklaşık 16GB VRAM gerektirir. **Fiyatlandırma:** Kendi kendine barındırılan (yalnızca donanım maliyeti) veya Vertex MaaS oranları. *Tüm fiyatlandırma rakamları Nisan 2026'da yayınlanan oranları yansıtır. En güncel rakamlar için Vertex AI, Gemini API ve özel sağlayıcınızın resmi fiyatlandırma sayfalarını kontrol edin.*
Hızlı Başvuru
Yapay zeka çıkarımına çok fazla harcama yapıyorsunuz
Varsayılan olarak hangi modeli seçeceğinizden emin değilsiniz
Claude basit görevlerde beklenenden daha yavaş çalışıyor
Günlük kodlama için varsayılan olarak Gemini Flash'ı seçin; mimari için Pro ve Claude modellerini ayırın
Maliyet birincil kısıt olduğunda uç noktada 0,09$ girdi maliyetiyle Vertex MaaS üzerinde GPT-OSS 120B kullanın
Aşırı düşünme kaynaklı gecikmeyi azaltmak amacıyla rutin görevler için Claude'un çaba parametresini düşürün
Claude Opus'u Otonom Kullanım İçin Ayarlamak
Claude Opus 4.6 kendi bölümünü hak ediyor çünkü Antigravity ve Vertex AI içindeki davranışları hem performansı hem de güvenliği etkileyen belirli özelliklere sahip. ### Çaba Ayarı Anthropic'in resmi duyurusu Opus 4.6'nın varsayılan olarak daha derin düşündüğünü belirtiyor; bu da kapsamlı akıl yürütme gerektirmeyen görevlerde maliyeti ve gecikmeyi şişirebileceği anlamına gelir. Önerilen çözüm **çaba** parametresini ayarlamaktır. Antigravity gibi otonom ortamlarda rutin kod üretimi için çabayı düşürüyor ve yalnızca karmaşık mimari incelemeler için artırıyorum. Aşağıda akış (streaming) etkinleştirilmiş olarak Vertex AI üzerinden Claude'u çağırmak için bir curl örneği bulunmaktadır: ```bash MODEL_ID="claude-opus-4-6" LOCATION="us-central1" PROJECT_ID="YOUR_PROJECT_ID" curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/publishers/anthropic/models/${MODEL_ID}:streamRawPredict" \ -d '{ "anthropic_version": "vertex-2023-10-16", "messages": [{"role": "user", "content": "Review this architecture for security gaps."}], "max_tokens": 4096, "stream": true }' ``` ### Web Araması Gizlilik Uyarısı Claude'un **web araması** (web search) yeteneğini Vertex üzerinden etkinleştirirseniz kritik bir veri akışının farkında olmalısınız; Claude isteminizden türetilen arama sorgularını Anthropic tarafından seçilen üçüncü taraf bir arama sağlayıcısına gönderir. Google bu üçüncü tarafın verileri nasıl işlediğinden sorumlu olmadığını açıkça belirtiyor. Tescilli kaynak kodu, müşteri verileri veya dahili mimari ayrıntıları içeren herhangi bir istek için web aramasını tamamen devre dışı bırakmanızı şiddetle tavsiye ediyorum. Bunu bir öneri olarak değil kesin bir güvenlik politikası olarak ele alın.
Hızlı Başvuru
Claude Opus 4.6 rutin kodlama için pahalıya mal oluyor
Web araması aracılığıyla veri sızıntısı hakkında endişeleriniz var
Vertex üzerinde akış yanıtları zaman aşımına uğruyor veya başarısız oluyor
Derin akıl yürütme gerektirmeyen görevlerde maliyetten tasarruf etmek için çaba parametresini düşürün
Tescilli veya hassas verilerle çalışırken Claude ayarlarında web aramasını devre dışı bırakın
Vertex proje kotanızı ve bölgenizi doğrulayın; en geniş model kullanılabilirliği için us-central1 bölgesini kullanın
GPT-OSS Yerel Dağıtımı ile Vertex MaaS Karşılaştırması
OpenAI'ın GPT-OSS model ailesi **açık ağırlıklı** (open-weight) olarak yayınlandı; bu, onları kendi altyapınızda barındırabileceğiniz anlamına gelir. Bu durum "antigravity gpu kullanamıyor" veya "Antigravity'ye Ollama nasıl eklenir" diye araştırma yapan herkes için kritik bir bağlamdır. Cevap detaylıdır; Antigravity temel akıl yürütme motorları olarak yerel modelleri desteklemez ancak GPT-OSS size IDE dışında kendi sunucunuzda barındırabileceğiniz bir alternatif sunar. ### Hızlı Yerel Kurulum OpenAI Yemek Kitabı (Cookbook) `transformers` kütüphanesini kullanarak hızlı bir yolu gösteriyor: ```bash pip install -U transformers # Yerel bir sunucu başlatın transformers serve # Bağlanın ve sohbet edin transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b ``` ### Donanım Gereksinimleri 20B parametreli model MXFP4 nicelemesi kullanarak **yaklaşık 16GB VRAM** ile çalışır; bu da modeli RTX 4080 veya 4090 gibi tek bir tüketici donanımında erişilebilir hale getirir. 120B modeli kurumsal donanım (A100, H100) veya çoklu grafik işlemci kurulumları gerektiren **80GB sınıfı VRAM** kullanımını hedefler. ### vLLM ile Ölçekli Sunum Üretim iş yükleri için sunum katmanı olarak **vLLM** kullanmanızı öneririm. Bu katman OpenAI uyumlu bir sunucu uç noktası ve bellek ayak izini azaltan ve aynı donanım üzerinde daha uzun bağlam pencerelerine veya daha yüksek veri geçişine izin veren **KV önbellek nicelemesi** (FP8) gibi gelişmiş bellek optimizasyonları sağlar. ### Vertex MaaS Alternatifi Kendi sunucunuzda barındırmak sizin için fazla operasyonel yük getiriyorsa Vertex AI OpenAI Sohbet Tamamlama uyumlu bir uç noktaya sahip **Hizmet Olarak Model (MaaS)** platformu aracılığıyla GPT-OSS sunar: ```bash LOCATION="global" PROJECT_ID="YOUR_PROJECT_ID" curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -d '{"model":"gpt-oss-120b-maas","messages":[{"role":"user","content":"Explain KV cache quantization."}],"max_tokens":500,"stream":true}' \ "https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/openapi/chat/completions" ``` Bu bağlamda akış kullanmak jetonların tek bir toplu yanıt yerine kademeli olarak gelmesini sağladığı için algılanan gecikmeyi azaltır.
Hızlı Başvuru
Antigravity'nin model seçici bölümüne Ollama veya yerel modeller eklenemiyor
GPT-OSS 20B donanımınızda bellek yetersizliğine neden oluyor
Modeli kendi sunucunuzda barındırmak çok fazla operasyonel iş gibi hissettiriyor
Temel modeli değiştirmeye çalışmak yerine yerel model uç noktalarını araç olarak çağırmak için MCP kullanın
MXFP4 nicelemesi uygulayın ve 20B modeli için en az 16GB VRAM donanımınız olduğunu doğrulayın
Kendi sunum altyapınızı yönetmeden GPT-OSS modellerine erişmek için Vertex MaaS kullanın
Gelişmiş API Yapılandırmaları: Toplu İş, Küresel ve Önbellek
Gemini veya Vertex API'leri (Antigravity dışında) üzerine uygulamalar inşa ederken API yapılandırmasını ayarlamanın model istemini ayarlamak kadar önemli olduğunu düşünüyorum. ### Küresel Uç Noktalar Vertex AI **küresel uç noktaların** tek bölgeli uç noktalara kıyasla daha yüksek kullanılabilirlik ve güvenilirlik sağladığını belirtiyor. Tüm üretim iş yükleri için varsayılan olarak küresel uç noktaları kullanıyorum ve yalnızca veri ikamet gereksinimleri mecbur kıldığında belirli bir bölgeye geçiyorum. Küresel yönlendirme ayrıca tek tek bölgelerin 429 hız sınırı hataları döndürebileceği yüksek talep dönemlerinde de yardımcı olur. ### Çıkarım Kademeleri Gemini API artık üç kademe destekliyor: - **Standart**: Varsayılan seçenektir. Dengeli gecikme ve kullanılabilirlik sunar. - **Esnek**: Biraz daha yüksek ve değişken gecikme karşılığında daha düşük fiyatlandırma sağlar. Bunu gerçek zamanlı API üzerinden yürütülen toplu iş benzeri iş yükleri için kullanıyorum. - **Öncelikli**: En düşük gecikmeyi garanti eder. Bunu yanıt süresinin son kullanıcı deneyimini doğrudan etkilediği kullanıcıya dönük özellikler için ayırıyorum. Kullanım senaryosuna göre doğru kademeyi seçmek istemde veya modelde herhangi bir değişiklik yapmadan maliyetleri yüzde 30 ila 50 oranında azaltabilir. ### Bağlam Önbelleğe Alma Vertex AI **örtük** ve **açık** bağlam önbelleğe almayı birbirinden ayırır. Örtük önbelleğe alma tekrarlanan istem ön ekleri algılandığında otomatik olarak gerçekleşir. Açık önbelleğe alma işlemi API'nin depoladığı ve çağrılar boyunca başvurduğu bir önbellek girişi tanımlamanızı gerektirir. Aynı sistem istemini ve büyük bir kod tabanı bağlamını düzinelerce isteğe gönderdiğim iş akışları için açık bağlamı önbelleğe almak hem para hem de zaman tasarrufu sağlıyor. Önbelleğe alınan jetonlar yeni girdi jetonlarından önemli ölçüde daha düşük bir oranda ücretlendirilir. ### Toplu API Gemini Geliştirici API'si gerçek zamanlı çıkarıma kıyasla **%50 maliyet tasarrufu sağlayan Toplu (Batch) API** sunuyor. Dokümantasyon oluşturma, büyük ölçekli kod inceleme ve test paketi oluşturma işlemlerini toplu olarak gönderiyorum. Buradaki ödünleşim toplu işlerin sonuçları anında döndürmemesidir; işler eşzamansız olarak işlenir ve sonuçlar daha sonra alınır. Geliştiricinin iş akışını engellemeyen her şey için toplu iş seçeneği mali açıdan sorumlu bir seçimdir. *Fiyatlandırma ayrıntıları zamanla değişebilir. Güncel oranlar ve kademe kullanılabilirliği için her zaman resmi Gemini API ve Vertex AI fiyatlandırma belgelerine başvurun.*
Hızlı Başvuru
Vertex API'den 429 hız sınırı hataları alıyorsunuz
Önbelleğe alma işlemi jeton maliyetlerini düşürmüyor gibi görünüyor
Toplu iş sonuçlarının dönüşü çok uzun sürüyor
Yükü bölgeler arasında otomatik olarak dağıtmak için küresel uç noktalara geçiş yapın
Tekrarlanan sistem istemleri için açık bağlam önbelleğe almayı kullanın; ön ekin her çağrıda tamamen aynı olduğundan emin olun
Toplu işleri yalnızca gerçekten aciliyeti olmayan görevler için ayırın; aktif geliştirmeyi engelleyen hiçbir şeyi topluca göndermeyin
Üretim İçin Uç, Bulut ve Hibrit Dağıtım Desenleri
Yapay zeka destekli uygulamalar oluştururken üç farklı dağıtım desenini değerlendiriyorum. Doğru seçim veri ikameti, gecikme gereksinimleri ve operasyonel kapasiteye bağlıdır. ### Uç (Kendi Kendine Barındırılan GPT-OSS) **Ne zaman kullanılmalı:** Katı veri egemenliği gereksinimleri, çevrimdışı ortamlar veya 10 ms altı çıkarım gecikmesine ihtiyaç duyduğunuz senaryolar. **Avantajları:** Model, veriler ve sunum altyapısı üzerinde tam kontrol sağlar. OpenAI GPT-OSS modellerinin OpenAI API üzerinden sunulmadığını açıkça belirtiyor; bu nedenle kendi kendine barındırma (self-hosting) hedeflenen dağıtım modelidir. **Ödünleşimleri:** Donanıma, sunum yığınına (vLLM, TGI vb.) ve model güncelleme yaşam döngüsüne sahip olursunuz. Bu durum trafikle birlikte artan operasyonel bir yüktür. ### Bulut (Vertex AI) **Ne zaman kullanılmalı:** Kurumsal ölçek, küresel kullanıcı tabanları ve yönetilen altyapıdan yararlanan projeler. **Avantajları:** Yüksek kullanılabilirlik için küresel uç noktalar, yerleşik önbelleğe alma ve toplu işleme, entegre gözlemlenebilirlik panoları ve denetim kayıtları. **Ödünleşimleri:** Yoğun talep sırasında kota limitlerine ve 429 hatalarına maruz kalır. Üçüncü taraf model entegrasyonları (Claude web araması gibi) güvenlik incelemesi gerektiren veri akışı hususlarını beraberinde getirir. ### Hibrit (Bulut Modelleri + MCP Aracılığıyla Yerel Araçlar) **Ne zaman kullanılmalı:** Bulut düzeyinde akıl yürütmeye ihtiyaç duyduğunuz ancak araçlarınızın, veritabanlarınızın veya API'lerinizin yerel altyapıda kalmasının zorunlu olduğu zamanlar. **Avantajları:** Antigravity'nin MCP desteği bu deseni yerel olarak etkinleştirir. Bulut modelleri akıl yürütmeyi halleder; yerel MCP sunucuları ise araçları ve veri erişimini sağlar. **Ödünleşimleri:** Araç güvenliği sizin sorumluluğunuzda olur. Sırların `mcp_config.json` içinde dikkatlice yönetilmesi gerekir. Entegrasyon kararlılığı hem bulut modelinin kullanılabilirliğine hem de yerel sunucunuzun çalışma süresine bağlıdır. Çoğu profesyonel kurulumun hibrit desene doğru evrildiğini görüyorum. İşin en iyi yapıldığı kısmını (geniş ölçekte akıl yürütme) bulut ele alırken tescilli veriler, dahili API'ler ve düşük gecikmeli araçlar gibi zorunlu kısımları yerel altyapı halleder.
Hızlı Başvuru
Projenize hangi desenin uyacağından emin değilsiniz
Bulut modeli dahili veritabanlarına erişemiyor
Uç dağıtımı tek bir GPU'nun kapasitesini aşıyor
Üretime geçiş hızı için Bulut (Vertex) ile başlayın; ihtiyaçlar geliştikçe hibrit modele geçin
Bulut modellerini verileri internete maruz bırakmadan yerel veritabanlarına bağlamak için MCP kullanın
Uç noktayı vLLM'nin çoklu GPU sunumuyla ölçeklendirin veya ağır modeli Vertex MaaS ortamına taşıyın
Vertex Ortamında Gözlemlenebilirlik ve Hata Ayıklama
Bir yapay zeka iş akışında bir şeyler ters gittiğinde hata ayıklama deneyimi geleneksel yazılımlardan temelde farklıdır. Model kapalı bir kutudur; akıl yürütme sürecini bir hata ayıklayıcıyla adım adım izleyemezsiniz. Bunun yerine ne olduğunu ve neden olduğunu anlamak için gözlemlenebilirlik araçlarına güveniyorum. ### Model Gözlemlenebilirlik Panosu Vertex AI kullanım metriklerini, gecikme yüzdeliklerini ve hata oranlarını yüzeye çıkaran önceden oluşturulmuş bir **model gözlemlenebilirlik panosu** sağlar. API tabanlı iş akışlarında "Antigravity gecikmesi" veya beklenmeyen yavaşlıkları teşhis ederken ilk durağım burasıdır. Pano sorunun kodumda mı, ağda mı yoksa modele hizmet veren altyapıda mı olduğunu ortaya koyuyor. ### İstek ve Yanıt Günlüğe Kaydetme Vertex tam istek ve yanıt yüklerini bir BigQuery tablosuna yazan **istek/yanıt günlüğe kaydetme** özelliğini destekler. Üretim uygulamaları için bunu etkinleştiriyorum ve üç amaçla kullanıyorum: 1. **Hata Ayıklama**: Model beklenmeyen bir çıktı ürettiğinde onu tetikleyen tam isteği tekrar oynatabilirim (replay). 2. **Maliyet Atıflama**: İsteklere **özel etiketler** ekleyerek maliyetleri özelliklere, ekiplere veya müşterilere göre ayırabiliyorum. Özel etiketlerin şu anda yalnızca Google modelleri için desteklendiğini unutmayın; etiket eklendiğinde iş ortağı modelleri hatalar üretebilir. 3. **Uyumluluk**: Düzenlemeye tabi endüstrilerde eksiksiz istek/yanıt kaydı her yapay zeka etkileşiminin bir denetim izini sağlar. ### Denetim Kayıtları Vertex model uç noktası kullanımını izlemek için **Veri Erişimi denetim kayıtları** sunar. Yüksek hacimde günlük verisi üretebildikleri için bazı hizmetlerde varsayılan olarak devre dışı bırakılmışlardır. Gürültüyü ve depolama maliyetlerini önlemek için bunları üretim uç noktalarında seçici olarak etkinleştiriyorum ve geliştirme ortamında devre dışı bırakıyorum. ### Yerel Hata Ayıklama Antigravity'nin kendi masaüstü uygulaması yerel günlük konumları ve formatları için tek bir standart yayınlamadığından yerel hata ayıklama işlemi için çıktı panelinin (editörün altından erişilebilir) ve geliştirici konsolunun kontrol edilmesini gerekir. Vertex API hata ayıklama süreci için bulut tarafındaki araçlar çok daha yeteneklidir.
Hızlı Başvuru
Modelin neden beklenmedik bir yanıt ürettiğini belirleyemiyorsunuz
Maliyet atıflama işlemi yeterince ayrıntılı değil
Denetim kaydı hacmi bunaltıcı seviyede
BigQuery üzerinde istek/yanıt günlüğe kaydetmeyi etkinleştirin ve tam olarak başarısız olan isteği tekrar oynatın
Maliyetleri özelliğe veya ekibe göre bölümlere ayırmak için her API çağrısına özel etiketler ekleyin
Denetim kayıtlarını yalnızca üretim uç noktalarında etkinleştirin; geliştirme ve hazırlık aşaması için devre dışı bırakın
Araç Zincirine Ayak Uydurmak: Kırılgan Şema Değişiklikleri
Yapay zeka araç ekosistemi hızlı hareket ediyor. İki yıllık bir süre içinde onları takip etmiyorsanız entegrasyonlarınızı sessizce bozabilecek birkaç kırılgan değişiklik (breaking changes) karşımıza çıktı. Aşağıda katalogladığım değişiklikleri bulabilirsiniz. ### Gemini API (2025-2026) - `gemini-3-pro-preview` Mart 2026'da **kapatıldı**. Bu takma ad (alias) artık `gemini-3.1-pro-preview` modeline yönlendiriliyor. Kodunuz eski model kimliğini katı kod olarak ayarlıyorsa (hardcodes) yönlendirme yoluyla hala çalışabilir ancak sessiz davranış değişikliklerinden kaçınmak için açıkça güncellemenizi tavsiye ediyorum. - Interactions API v1beta sürümünde `total_reasoning_tokens` alanı `total_thought_tokens` olarak yeniden adlandırıldı. Bu sürüm notlarında **kırılgan değişiklik** olarak listeleniyor. Bu alanı ayrıştıran herhangi bir telemetri veya faturalama işlem hattının bir şema güncellemesine ihtiyacı olacaktır. - **Esnek ve Öncelikli** (Flex ve Priority) çıkarım kademeleri Nisan 2026'da tanıtıldı. Varsayılan olarak Standart kademedeyseniz gecikmeye duyarlı olmayan iş yükleri için fazla ödeme yapıyor olabilirsiniz. ### Antigravity (Sürüm 1.20.3, 2026 başı) - Ajan kurallarını tanımlamak için GEMINI.md yerine bir alternatif sunan **AGENTS.md desteği** eklendi. - **Otomatik Devam Etme** (Auto-continue) ayarı kullanımdan kaldırıldı ve varsayılan olarak açık hale getirildi. Ajanın adımlar arasında duraklamasına güveniyorsanız bu davranış değişikliği beklenmedik çok adımlı yürütmelere neden olabilir. - Uzun konuşmaların **yükleme süresi iyileştirmeleri** bildirildi ancak uygulamada çok uzun ileti dizileri kullanmak kullanıcı arayüzünde hala yavaşlamaya neden olabiliyor. - Bazı topluluk raporlarında yama notlarında **"Komut desteği kaldırıldı"** ibaresinin yer aldığı belirtildi ve bu durum satır içi komut kullanılabilirliği konusunda kafa karışıklığına neden oldu. İş akışınız yoğun şekilde satır içi terminal komutlarına dayanıyorsa her güncellemeden sonra bir regresyon testi çalıştırın. ### Claude Opus 4.6 (Şubat 2026) - Anthropic **çaba** (effort) ayarını birinci sınıf bir parametre olarak tanıttı. Otonom bağlamlarda varsayılan yüksek çaba maliyet ve gecikme sürprizleri yaratabilir. Bu parametreyi açıkça belirleyin. - Vertex'in Claude entegrasyonu sorguları üçüncü taraf bir arama sağlayıcısı üzerinden yönlendiren bir **web araması** (web search) yeteneği ekledi. Etkinleştirmeden önce veri sınıflandırma politikalarınızı gözden geçirin. ### GPT-OSS (2025-2026) - OpenAI GPT-OSS modellerinin **OpenAI API veya ChatGPT üzerinden sunulmadığını** doğruladı. Tüm üretim dağıtımlarında kendi kendine barındırma veya Vertex MaaS gibi üçüncü taraf bir sağlayıcı kullanılmalıdır. Birleşik bir OpenAI SDK'sı kullanmayı planlıyorsanız bu durum sağlayıcı soyutlama (abstraction) katmanınızı etkiler. ### Önemli Tarihler - **Kasım 2024**: Llama için Vertex AI toplu iş tahminleri (Önizleme), Gemini toplu işleme (Genel Erişim) - **Mayıs 2025**: Vertex AI küresel uç noktası Genel Erişim, genişletilmiş gözlemlenebilirlik - **Kasım 2025**: Antigravity genel önizleme lansmanı (ücretsiz katman) - **Aralık 2025**: Gemini 3 Flash Önizleme, Interactions API kırılgan değişikliği - **Şubat 2026**: Gemini 3.1 Pro Önizleme, Claude Opus 4.6 - **Mart 2026**: Gemini 3 Pro kapanışı, Antigravity kredileri ve aşımları tartışması - **Nisan 2026**: Esnek ve Öncelikli çıkarım kademelerinin lansmanı
Hızlı Başvuru
Model güncellemesinden sonra entegrasyon bozuldu
Faturalama işlem hattı hatalı jeton sayıları gösteriyor
Ajan aniden duraklamadan birden fazla adım yürütüyor
Katı olarak kodlanmış model kimliklerini en son sürümlerle değiştirin; her Gemini API sürümünden sonra test edin
Öğesi total_reasoning_tokens yerine total_thought_tokens olarak değiştirilen telemetri şemasını güncelleyin
Otomatik Devam Etme varsayılan olarak açık hale geldi; adım adım kontrole ihtiyacınız varsa en son ayarları kontrol edin
