Bu yazı 2283 kelimedir ve yaklaşık 12 dk okuma süresine sahiptir.
Not: Bu içerik, makine öğrenimi ve büyük veri setleri hakkında genel bilgilendirme amaçlıdır. Alanında uzman bir profesyonel tarafından verilen tavsiye veya eğitimin yerine geçmez. Teknik detaylar ve uygulamalar için uzmanlara danışılması önerilir.
Günümüzün dijital dünyasında, yapay zeka (YZ) ve makine öğrenimi (ML) hayatımızın vazgeçilmez bir parçası haline gelmiştir. Bu teknolojilerin kalbinde yatan en kritik unsurlardan biri, şüphesiz ki Makine Öğrenimi için Büyük Veri Setleridir. Büyük veri setleri, algoritmaların öğrenmesini, kalıpları tanımasını ve isabetli tahminler yapmasını sağlayan temel yakıttır. Veri olmadan, en gelişmiş makine öğrenimi modelleri bile işlevsiz kalır. Bu nedenle, büyük veri setlerinin anlaşılması, toplanması, işlenmesi ve etkin bir şekilde kullanılması, makine öğrenimi projelerinin başarısı için hayati öneme sahiptir.
Tıpkı bir yazarın kelimelerle evrenler yaratması gibi, veri bilimcileri de verilerle algoritmaları eğitir. Örneğin, William Shakespeare insan doğasını ve toplum ilişkilerini devasa gözlemleriyle betimlemiş, eserlerini derinlikli “veri” setleri üzerine inşa etmiştir. Benzer şekilde, makine öğrenimi de karmaşık problemleri çözmek için bu dijital “veri” dağlarından anlam çıkarır. Bu Yazı, makine öğrenimi için büyük veri setlerinin neden bu kadar önemli olduğunu, özelliklerini, kaynaklarını, karşılaşılan zorlukları ve çözüm yollarını detaylı bir şekilde ele alacaktır.
Kısa Özet
Bu içerik, makine öğrenimi (ML) için büyük veri setlerinin kritik rolünü incelemektedir. Büyük veri setleri, ML modellerinin öğrenmesi, kalıp tanıması ve doğru tahminler yapması için temel “yakıt” görevi görür. İçerikte, büyük verinin “3V” (Hacim, Çeşitlilik, Hız) ve ek olarak “Doğruluk” ve “Değer” gibi özellikleri detaylandırılmaktadır. Kaggle, UCI ML Repository ve Google Dataset Search gibi başlıca veri kaynakları tanıtılırken, veri kalitesi, gizlilik, depolama ve hesaplama kaynakları gibi büyük veriyle çalışmanın zorlukları da ele alınmaktadır. Ayrıca, bu zorlukların üstesinden gelmek için bulut tabanlı çözümler ve dağıtık sistemler gibi yaklaşımlara değinilmektedir. Sağlık, finans ve otonom araçlar gibi çeşitli sektörlerdeki uygulama alanları da örneklenerek, makine öğrenimi projelerinde büyük veri setlerinin stratejik önemi vurgulanmaktadır.
Büyük Veri Setleri Neden Makine Öğrenimi için Hayati Önem Taşıyor?
Makine öğrenimi, sistemlerin açıkça programlanmadan öğrenmesini sağlayan yapay zekanın bir alt kümesidir. Bu öğrenme süreci, büyük miktarda veriye dayanır. Algoritmalar, bu verilerdeki gizli desenleri ve ilişkileri keşfederek gelecekteki olaylar hakkında tahminlerde bulunur veya kararlar alır. Veri ne kadar çeşitli, kapsamlı ve kaliteli olursa, modelin öğrenme yeteneği ve dolayısıyla tahmin doğruluğu o kadar artar.
Makine Öğreniminde Verinin Rolü: Yakıt ve Rehber
Veri, makine öğrenimi algoritmaları için hem yakıt hem de rehberdir. Bir arabanın yakıta ihtiyacı olduğu gibi, makine öğrenimi modelleri de çalışmak ve gelişmek için veriye ihtiyaç duyar. Yeterli veri olmadan, bir model genelleme yapamaz, yani yeni ve bilinmeyen verilere doğru bir şekilde uygulanamaz. Örneğin, bir görüntü tanıma modelini kedileri ve köpekleri ayırt etmesi için eğitmek istiyorsanız, modele binlerce, hatta milyonlarca kedi ve köpek görüntüsü sağlamanız gerekir. Bu geniş örnek kümesi, modelin her hayvanın benzersiz özelliklerini anlamasına yardımcı olur.
Veri aynı zamanda modelin “öğretmeni” gibidir. Denetimli öğrenmede, etiketli veri setleri kullanılarak modelin doğru çıktıları öğrenmesi sağlanır. Denetimsiz öğrenmede ise model, etiketlenmemiş verilerdeki gizli yapıları ve ilişkileri kendi başına keşfeder. Her iki durumda da, öğrenme sürecinin etkinliği doğrudan verinin miktarına, kalitesine ve temsil gücüne bağlıdır.
Tarihsel Gelişim ve Büyük Verinin Yükselişi
Makine öğrenimi kavramı on yıllardır var olsa da, son yıllardaki yükselişi büyük veri çağının başlamasıyla paraleldir. İnternet, mobil cihazlar, IoT (Nesnelerin İnterneti) sensörleri ve sosyal medya gibi kaynaklar, daha önce hiç olmadığı kadar büyük miktarda veri üretmemize neden oldu. Bu veri patlaması, makine öğrenimi modellerini eğitmek için muazzam bir potansiyel sundu. Veri depolama maliyetlerinin düşmesi ve işlem gücünün artması da bu büyük veri setlerinin işlenmesini ve analiz edilmesini mümkün kıldı. Bu sayede, karmaşık derin öğrenme modelleri geliştirilebildi ve bilgisayar görüşü, doğal dil işleme gibi alanlarda çığır açan ilerlemeler kaydedildi.
Makine Öğrenimi için Büyük Veri Setlerinin Özellikleri
Büyük veri setleri sadece hacim olarak büyük olmakla kalmaz, aynı zamanda belirli özelliklere de sahiptir. Genellikle “3V” olarak bilinen bu özellikler, verinin karmaşıklığını ve potansiyelini tanımlar. Bu üç temel özelliğe ek olarak, “Doğruluk” ve “Değer” gibi başka önemli faktörler de bulunmaktadır.
Hacim, Çeşitlilik ve Hız (3V)
- Hacim (Volume): Büyük verinin en belirgin özelliğidir. Terabaytlarca, petabaytlarca, hatta zettabaytlarca veriden bahsediyoruz. Makine öğrenimi algoritmaları için ne kadar fazla veri olursa, modelin öğrenme kapasitesi o kadar yüksek olur ve bu da daha doğru tahminler yapılmasını sağlar.
- Çeşitlilik (Variety): Verinin farklı formatlarda ve kaynaklardan gelmesini ifade eder. Metin, görüntü, video, ses, sensör verileri, log dosyaları gibi yapılandırılmış, yarı yapılandırılmış ve yapılandırılmamış veriler bir araya gelebilir. Makine öğrenimi modelleri, bu farklı veri türlerini entegre ederek daha zengin ve kapsamlı içgörüler elde edebilir.
- Hız (Velocity): Verinin oluşturulma, toplanma ve işlenme hızıdır. Sosyal medya akışları veya finansal piyasa verileri gibi bazı veri setleri gerçek zamanlı olarak sürekli üretilir. Makine öğrenimi uygulamaları, hızlı akan bu veriyi anında işleyerek gerçek zamanlı karar verme yeteneği kazanır.
Doğruluk ve Değer (Ekstra V’ler)
- Doğruluk (Veracity): Verinin güvenilirliğini ve doğruluğunu ifade eder. Büyük veri setleri genellikle gürültülü, eksik veya hatalı bilgiler içerebilir. Makine öğrenimi modellerinin doğru sonuçlar üretebilmesi için verinin temiz, tutarlı ve güvenilir olması kritik öneme sahiptir. Düşük kaliteli veri, yanlış veya yanıltıcı öğrenmelere yol açabilir.
- Değer (Value): İşlenen veriden elde edilen faydalı içgörüleri ifade eder. Büyük miktarda veriye sahip olmak tek başına yeterli değildir; bu veriden anlamlı ve eyleme geçirilebilir değer çıkarılmalıdır. Makine öğrenimi, büyük veriden gerçek iş değeri yaratma potansiyeli sunar.
Büyük Veri Setlerinin Kaynakları ve Türleri
Makine öğrenimi projeleri için veri setlerine erişim, projenin ilk ve en önemli adımlarından biridir. Çeşitli platformlar ve kurumlar, farklı ihtiyaçlara yönelik büyük veri setleri sunar.
Açık Kaynak Veri Setleri: Bilimin Hizmetinde
Birçok kurum ve topluluk, makine öğrenimi araştırmaları ve geliştirmeleri için halka açık veri setleri sunmaktadır. Bu kaynaklar, özellikle yeni başlayanlar veya belirli bir alanda prototip geliştirmek isteyenler için idealdir:
- Kaggle: Veri bilimi yarışmalarıyla bilinen Kaggle, kullanıcılar tarafından katkıda bulunulan binlerce veri setine ev sahipliği yapar. Görüntü, metin, sayısal veriler gibi geniş bir yelpazeyi kapsar.
- UCI Machine Learning Repository: Onlarca yıldır makine öğrenimi topluluğunun temel kaynaklarından biridir. Çeşitli algoritmaları test etmek için uygun, genellikle daha küçük ve temiz veri setleri sunar.
- Google Dataset Search: Milyonlarca veri setini indeksleyen bir arama motorudur. Akademik yayınlardan hükümet sitelerine kadar birçok kaynaktan veri bulmanızı sağlar.
- AWS Open Data Registry: Amazon Web Services, bulut platformunda barındırılan halka açık büyük veri setlerini sunar. İklim verilerinden genomik verilere kadar geniş bir alanı kapsar.
- Microsoft Azure Open Datasets: Makine öğrenimi için optimize edilmiş küratörlü açık veri setleri sağlar, hava durumu verileri, uydu görüntüleri gibi alanları içerir.
- ImageNet ve MNIST: Bilgisayar görüşü alanında çığır açmış, temel ve çok kullanılan görüntü veri setleridir. MNIST el yazısı rakamlar, ImageNet ise geniş bir nesne yelpazesini içerir.
- TensorFlow Datasets: Derin öğrenme ve yapay zeka projeleri için optimize edilmiş, görüntü, metin ve ses verileri içeren özel veri setleri sunar.
Kurumsal ve Özel Veri Setleri: Sektörlerin Kalbinde
Açık kaynakların yanı sıra, birçok şirket ve araştırma kurumu kendi özel veri setlerini kullanır. Bu veri setleri genellikle hassas ticari sırları veya kişisel bilgileri içerir ve bu nedenle halka açık değildir. Finans, sağlık, perakende gibi sektörlerde toplanan müşteri davranışları, işlem kayıtları, tıbbi görüntüler gibi veriler, ilgili şirketlere rekabet avantajı sağlar. Bu tür veri setleri, yüksek kalitede ve belirli iş problemlerine yönelik olarak toplanıp işlenir.
Makine Öğrenimi Veri Setleri: Bir Bakışta
- Hacim: Petabaytlarca ve daha fazlası. Büyük ölçekli öğrenme için vazgeçilmez.
- Çeşitlilik: Metin, görüntü, ses, video, sensör verileri. Modellerin daha kapsamlı anlam çıkarmasını sağlar.
- Hız: Gerçek zamanlı akış. Anlık kararlar ve dinamik analizler için kritik.
- Doğruluk: Veri kalitesi. Yanlış kararları önlemek için temiz ve güvenilir veri şart.
- Değer: Eyleme geçirilebilir içgörüler. İş hedeflerine ulaşmada kilit rol oynar.
- Örnek Kaynaklar: Kaggle, UCI ML Repository, Google Dataset Search, AWS.
Büyük Veri Setleriyle Çalışmanın Zorlukları ve Çözümleri
Büyük veri setleri, makine öğrenimine eşsiz fırsatlar sunsa da, beraberinde önemli zorlukları da getirir. Bu zorlukların üstesinden gelmek, başarılı bir makine öğrenimi projesi için kritik öneme sahiptir.
Veri Toplama, Ön İşleme ve Temizleme
Büyük veri setlerini toplamak ve ön işlemek karmaşık ve zaman alıcı bir süreçtir. Farklı kaynaklardan gelen veriler genellikle farklı formatlarda, eksik değerlerle, gürültüyle ve tutarsızlıklarla doludur. Bu verileri makine öğrenimi modelinin anlayabileceği bir formata dönüştürmek, “veri temizleme”, “normalleştirme” ve “özellik mühendisliği” gibi adımları içerir. Bu adımlar, modelin performansını doğrudan etkiler. Otomatik veri işleme boru hatları (data pipelines) ve ETL (Extract, Transform, Load) araçları, bu süreci optimize etmeye yardımcı olabilir.
Depolama ve Hesaplama Kaynakları
Petabaytlarca veriyi depolamak ve işlemek, ciddi altyapı gereksinimleri doğurur. Geleneksel veritabanları ve tek makineler, bu ölçeğin altından kalkmakta zorlanır. Bu durum, dağıtık depolama sistemleri (Apache Hadoop HDFS gibi) ve dağıtık hesaplama çerçeveleri (Apache Spark gibi) gibi çözümleri zorunlu kılar. Bulut tabanlı platformlar (AWS, Google Cloud, Azure), esnek ve ölçeklenebilir depolama ve hesaplama kaynakları sunarak bu soruna etkili çözümler getirir. GPU’lar (Grafik İşlem Birimleri) ise özellikle derin öğrenme modellerinin büyük veri setleri üzerinde eğitimi için gereken yoğun hesaplama gücünü sağlar.
Etik ve Gizlilik Endişeleri
Büyük veri setleri genellikle hassas kişisel bilgiler içerebilir. Bu durum, veri gizliliği ve etik kullanımıyla ilgili önemli endişeleri beraberinde getirir. GDPR (Genel Veri Koruma Yönetmeliği) gibi düzenlemeler, kişisel verilerin toplanması, depolanması ve işlenmesi konusunda katı kurallar getirir. Veri anonimleştirme, veri maskeleme ve sentetik veri oluşturma gibi teknikler, gizliliği korurken verinin analiz edilebilirliğini sağlamak için kullanılır. Makine öğrenimi modellerinin tarafsızlığını sağlamak ve algoritmik ayrımcılığı önlemek de büyük veri setleriyle çalışırken dikkat edilmesi gereken etik konular arasındadır.
Makine Öğreniminde Büyük Veri Setlerinin Uygulama Alanları
Büyük veri setleri, makine öğreniminin dönüştürücü gücünü birçok farklı sektöre taşıyarak inovasyonun önünü açmaktadır.
Sağlık ve Biyoteknoloji
Sağlık sektöründe büyük veri setleri, hastalık teşhisinde, kişiselleştirilmiş tedavi planlarının oluşturulmasında ve ilaç keşfinde devrim yaratıyor. Elektronik sağlık kayıtları, genomik veriler, tıbbi görüntüler (MR, BT taramaları) ve giyilebilir cihazlardan gelen sensör verileri gibi büyük veri setleri, makine öğrenimi modellerinin kanser gibi hastalıkları erken evrede tespit etmesine, ilaçların etkinliğini tahmin etmesine ve hastalar için en uygun tedavi yöntemlerini önermesine olanak tanır.
Finans ve Pazarlama
Finans sektöründe büyük veri, dolandırıcılık tespiti, kredi riski değerlendirmesi ve algoritmik ticaret stratejileri geliştirmede kullanılır. İşlem verileri, piyasa hareketleri ve müşteri davranışları analiz edilerek finansal riskler minimize edilir ve yatırım fırsatları belirlenir. Pazarlama alanında ise müşteri segmentasyonu, kişiselleştirilmiş reklamcılık, talep tahmini ve müşteri yaşam boyu değerini artırma gibi konularda büyük veri setleri kritik rol oynar. Sosyal medya verileri ve çevrimiçi satın alma alışkanlıkları, şirketlerin hedef kitlelerini daha iyi anlamasını sağlar.
Otomotiv ve Akıllı Şehirler
Otonom araçlar, büyük veri setlerine dayalı makine öğreniminin en heyecan verici uygulama alanlarından biridir. Araç sensörlerinden (LIDAR, kamera, radar) gelen gerçek zamanlı veriler, aracın çevresini algılamasını, engellerden kaçınmasını ve güvenli sürüş kararları almasını sağlar. Akıllı şehirler konseptinde ise trafik yönetimi, enerji optimizasyonu, güvenlik ve kamu hizmetlerinin iyileştirilmesi için sensör verileri, kamera görüntüleri ve vatandaş verileri gibi büyük veri setleri analiz edilir. Bu analizler, şehirlerin daha yaşanabilir ve verimli hale gelmesine katkıda bulunur.
Sonuç
Makine öğrenimi için büyük veri setleri, modern yapay zeka devriminin temel direklerinden biridir. Bu setler, algoritmaların insan benzeri bir şekilde öğrenmesini ve dünyanın en karmaşık sorunlarını çözmesini sağlar. Hacim, çeşitlilik, hız, doğruluk ve değer gibi özellikleriyle büyük veri, makine öğrenimi modellerine derinlik ve hassasiyet katmaktadır. Her ne kadar veri toplama, işleme, depolama ve etik konularında zorluklar yaşansa da, bulut bilişim, dağıtık sistemler ve gelişmiş algoritma teknikleri sayesinde bu engellerin üstesinden gelinebilmektedir. Gelecekte, veri kaynaklarının daha da çeşitlenmesi ve işleme teknolojilerinin ilerlemesiyle, makine öğreniminin yetenekleri daha da genişleyecek, hayatımızın her alanında daha akıllı ve verimli çözümler sunmaya devam edecektir. Veriye dayalı bu dönüşüm, bilimden sanata, finansdan sağlığa kadar her alanda etkisini göstermeye devam edecektir. Federico García Lorca gibi sanatçıların insan ruhunun karmaşık “verilerini” edebi eserlere dönüştürmesi gibi, teknoloji de bu büyük veri setlerini anlaşılır içgörülere dönüştürmektedir.
Teknik Terimler ve Açıklamalar
- Makine Öğrenimi (Machine Learning – ML): Bilgisayar sistemlerinin açıkça programlanmadan, verilerden öğrenerek görevleri yerine getirme yeteneği.
- Büyük Veri (Big Data): Geleneksel veri işleme yazılımlarının işleyemeyeceği kadar büyük ve karmaşık veri setleri. Genellikle Hacim, Çeşitlilik ve Hız (3V) ile karakterize edilir.
- Yapay Zeka (Artificial Intelligence – AI): Makinelerin insan zekasını taklit etmesini ve öğrenme, problem çözme gibi görevleri yerine getirmesini sağlayan bilgisayar bilimi alanı.
- Algoritma: Belirli bir problemi çözmek veya belirli bir görevi yerine getirmek için adım adım talimatlar dizisi.
- Veri Seti (Dataset): Analiz edilmek üzere toplanmış ilgili veri öğelerinin bir koleksiyonu.
- Derin Öğrenme (Deep Learning): Yapay sinir ağları kullanarak büyük veri setlerinden karmaşık örüntüler öğrenen makine öğreniminin bir alt alanı.
- Ön İşleme (Preprocessing): Verinin analiz veya modelleme için uygun hale getirilmesi süreci; temizleme, dönüştürme ve normalleştirme adımlarını içerir.
- Özellik Mühendisliği (Feature Engineering): Ham veriden makine öğrenimi modelinin performansını artıracak yeni özellikler oluşturma süreci.
- Genelleme (Generalization): Bir makine öğrenimi modelinin eğitim görmediği yeni verilere ne kadar iyi performans gösterdiği yeteneği.
- IoT (Nesnelerin İnterneti): Fiziksel nesnelerin, elektronik, yazılım, sensörler ve diğer teknolojilerle internet üzerinden birbirine bağlanması.
- Hadoop (Apache Hadoop): Büyük veri setlerinin dağıtık depolanması ve işlenmesi için açık kaynaklı bir yazılım çerçevesi.
- Spark (Apache Spark): Büyük veri işleme için tasarlanmış, hızlı ve genel amaçlı bir küme hesaplama sistemi.
- GPU (Grafik İşlem Birimi): Özellikle paralel hesaplama gerektiren derin öğrenme görevleri için optimize edilmiş özel işlemci.
- GDPR (Genel Veri Koruma Yönetmeliği): Avrupa Birliği’nde kişisel verilerin korunması ve gizliliği ile ilgili bir yönetmelik.
- Veri Anonimleştirme: Kişisel verilerin, ilgili kişinin kimliğini doğrudan veya dolaylı olarak belirlemeyi imkansız hale getirecek şekilde işlenmesi.
❓ Sıkça Sorulan Sorular (SSS)
Makine öğrenimi için neden büyük veri setlerine ihtiyaç duyulur?
Büyük veri setleri, makine öğrenimi algoritmalarının karmaşık kalıpları ve ilişkileri keşfetmesini, daha doğru tahminler yapmasını ve yeni verilere karşı genelleme yeteneğini artırmasını sağlar. Yeterli ve çeşitli veri olmadan, modellerin performansı sınırlı kalır.
Büyük veri setlerinin en temel özellikleri nelerdir?
En temel özellikleri Hacim (büyük miktarlar), Çeşitlilik (farklı formatlar ve kaynaklar) ve Hız (gerçek zamanlı akış) olarak bilinen “3V”dir. Buna ek olarak Doğruluk (güvenilirlik) ve Değer (faydalı içgörüler) de kritik öneme sahiptir.
Makine öğrenimi projeleri için veri setlerini nereden bulabilirim?
Kaggle, UCI Machine Learning Repository, Google Dataset Search, AWS Open Data Registry ve TensorFlow Datasets gibi platformlar, açık kaynaklı ve çeşitli veri setleri sunar. Ayrıca birçok kuruluş kendi özel veri setlerini de kullanır.
Büyük veri setleriyle çalışırken karşılaşılan zorluklar nelerdir?
Başlıca zorluklar arasında veri toplama ve ön işleme, depolama ve hesaplama kaynakları, veri kalitesini sağlama, ölçeklenebilirlik, etik ve gizlilik endişeleri yer alır.
Büyük veri ve makine öğrenimi hangi sektörlerde kullanılıyor?
Sağlık, finans, pazarlama, otomotiv, e-ticaret, akıllı şehirler, lojistik ve daha birçok sektörde kullanılarak karar alma süreçlerini optimize eder, verimliliği artırır ve inovasyonu destekler.
Kaynaklar
- https://imerit.net/blog/best-free-datasets-for-machine-learning/
- https://365datascience.com/resources/blog/best-public-datasets-for-machine-learning/
- https://sqream.com/blog/large-machine-learning-datasets-tips-and-top-sources/
- https://medium.com/@mohammadsaifalam.bd/scaling-up-machine-learning-efficient-strategies-for-handling-large-datasets-731383794b15
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFFrk5N42958FpU6wdYCJnfelD3NYBDD2JIOSyUs_qjlcHlbvCmfxpcRf-sOR5_GeFZURxMFq1IUKd8WrvRi7XcooNHWvpGOyn8-oeAYZ1K-9H5WM8DNuGlbk3r4d4GWMh94FMLljJL05HWQWdGnTENjyDYlJswxL4w-dbjXkS6wXqOXiq3sg==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFXSR2nXSFwqHPwuIwb_XUkf_NMV-ihSCQawF-lg9DMhPrnBU5GEdYCWvKWYZfM2dS9VrmLkI17gfZqjjUo9n73sN-WCYpBMZFORwCXWlevHIei7k89Vj2AuRQ4PUd1Zsz566F2DlZw1DAOCC2V_Sku4WboW2psm4Wq52nJHj69LCbE4Y6uAojcPXmFIAC_nY66X0n1VYPE4A9VHhc=
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHOc0DojI5UyIdGfEBun5AB8skgjBE2OeQdheYp-z4BMNc8GiAD7qE2qg5tLuZ7QUCqh1Z-wd35770DMRB14NzfE-_FCSS6cbCGQEM7zGnNwIIlqJO5yqagqaStheGKH6cvFI-Px0iVM-eJaeJrpQ==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHOkYtKmxs_bR6bf5QplrZtOuf71BReBK238yBsDB7HIdUnkem4eOlAOsqKvh3nOofa2wwf0yYZ9BFd-J1yOTLC6_fBb8lSiSNuF9NEsJ7B_OIVaZGdOL4rKHG4cZM7pIiUBgviBjaYz4CTdjG_fQYr1qpc9C2zEQ==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHRFB-2EMVBmO4YARtU2gI6GuTQ6vSs8rv6ctsCp2rVxDYdtXAtTCy2bvz7HwEP0m6WW2qrSINFpgdTO6EtVTyjV3srhFFjgXjvlLv-e4vzO7ScTTEI_mwYHGLZfBPceFtdsgN50vFvkiUoUkE=
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEDI4wjGw7HeuQADq8_bJsS3QkgNYWeDNEIZgT36Xs_3g9qMNGVNtZ2d_9SyybTIm6fTNDxHH9MPxYTTpPrY5DBvc-J9BmEg1zFaGF_YkcQcWWqOYnlrtwntY656YzBQ55rGBkTnh92ROoVAgY_rJSLJwZkvMcAOwgjRb3yvQnUprjAIFRpnBtI7NY-6IbGGmCj6z6v_JyniOpmmTPZmR8mZ9_83vVs0xxboiixuikd97Qfow0Hbl5cmIJTP2YEzF2NAZDkYetp3KpfKBMdgJkzXPMys8DyaAHnlNU0YPfknZB7P2Nwi6puq1WsqiV4jYzvbNqiLRkMV9tXR5NcBCFmwLGtG38mLzH73h0WrQhzzBTUGsxoApUS6kE=
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFrbsjsj6hCjZqnwaHsrbM9VPZHRuLyHoHIX2dI8vQkqmqo3XemueQYCRwoyrgxWB7aK98SWm1QnnF-n_9YGPjJmFFjP00GG2Y7CZxkpKwUWVxdJLPgEdW3PkBeAH9SlK0AfR6g1ryG1-n72DI-sowRAd-9D8e8R1AimxICwJXO38gocwr3l6lb2_x05CP-_I4JSmCl
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFK3k7f4P7cAmDy92FAUcS-IdfPdKavrk0mLsLKjGTOrdmD39Fa6w4LVRrR9N7zlLukrLJPcnBATSetym1fKmfT33PEPk2QYf3Llp09fFv9foG_Mv-EoBNN7c1yAQXeF1W-r4LVjHhYks-Xi67Lze4YiGfRfQ==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHcWVdjgoOM084U9zjXEe1uMINeYzlfB3iI-6PpOPQ8VagjdQ6FO2XvPvYuGMMQoTNcu-ubZaoAx0lZKyWn1qQ8-vha_mn56eDWZqMBHhHrB1vjwbBJeXNkBJiB1CZVyvjLzYecD5A80Be8TOePrI4YNVwJCcKX8UrhfyduptDKOQ==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGGENiNPmz10O18k7uodq3Jevah-hyLqJuW6vgcpCReMrkZvYBDDXvDIqLtF-fHhVOJcdAHqFyYZh6RSHPSL4iSzxoFNBekwKzzU_k1YmRCWdWGRYJNwNwICdizMFI4gg==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFafO8J4Pt7VTg2oFm3Y_tELkkWry0gYS2XsfOZRAlyI6whlZ7ynW5YADolw075jPst09lfVJCPgzA2aQMrEFv6XQ7XPTvpu1E2irGRGMZSbv9_O_3gkClEDmPH6-3CCxblYxI_jtS5lXgrGnlgn4APGNxsvoLvrZVCcmbMmbq4zQ==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGvEjkV2frXtd62caeBdcU8Pc3Q6u5Je5TuVHQhMxGxuCS7dZcYGxmVCaX7X35BprWA3nx6-yFUsg42Rr1sXM8lROCQMLQiY5-1bYE6tNJnM70_wPHTNaiA3TlKVEd7jHotfTQE-nLdB05nGLd0oCNg5jhR1orXdbOveoiyFQ24k06eOiGjI3CUlS8=
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQE77qUOLjyomSNO93-hCQJLRYPQj1dpl75dsZc7AgcB4lBUkrBQHIvKSxHLj3N-3Ymyyp-EVunh1J3gJWAAMH8e02t4dg2qRH3CJGK3hz4uPQ3nw3kADdai3Gi_14TmcGCP9nPxY1g6BMKMqQj0tFypfUp-kTM_q7w3eSQ_dwqkvN72X-St0dh86ze7SfQPUFtj378Wfv2ruIObjw==
- https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHUw2Itlvxul-jEtDTgqe40QfV9wKpV2GTpq6piDxSgJM8El7WYjUfSOhz3Yx_QSs7160VhQcSCEQ4qpfZCP7QkNrL-Pg4H9jNe1NXYfGk0rUlnw-OIpuGPwZmDJMJc1OyC4bRFh86StjSboykuIX1Ko1vB166IJl8HmfU0Y0URVVQYB0O682bAOxifhvsF_EFxYZ-yOn_skA==