Konu Yapay Zeka Olduğunda Daha Büyük, Daha İyi Anlamına Gelmiyor
Görüldüğü üzere yapay zeka her yerde ve git gide daha kalıcı hale geliyor. Bu süreç ChatGPT ile başlamadı lakin geçen sene kasım ayında erişime açıldığında beklentileri oldukça üste taşıdı. Teknoloji dünyasında blokzincirden beri yarattığı heyecanı ve kullanımı bu kadar süratli artan bir şey görmemiştik. IDC’nin bu yılın başlarında yayınladığı bir rapora nazaran yapay zeka için yapılan harcamalar 2026’ya kadar tüm dünyada 301 milyar dolar düzeyine ulaşacak ve bu periyotta yapılan harcamaları ikiye katlayacak.
Söylenene nazaran çalışan verimliliğinden müşteri memnuniyeti ve risk azaltmaya kadar her alan bu teknolojiden faydalanabiliyor. Oluşan heyecanı takip eden pek çok çalışan da yapay zeka öncüsü olmak ve yeni yollarla rekabet avantajı oluşturmak için birinci kullananlar ortasında yer almak istiyor. Lakin bu biçimde de şirketlerini kimi risklere açık hale getiriyor.
Veri pahalı olduğu ve ne kadar çok olursa o kadar bedelli olduğu için bilgiye ehemmiyet veriliyor fakat bu argüman her vakit geçerli olmayabiliyor. Zira girilen data seti arttıkça data kaynağını ve doğruluğunu denetlemek de o kadar zorlaşıyor. Yapay zekanın istemeden ortaya çıkarabileceği muhtemel telif hakkı ihlalleri de bu hususun farklı bir boyutu.
Yapay zekanın popülerliğini bir kez daha doruklara çıkartan ChatGPT’ye bakalım. OpenAI’ın web sitesinde yazan bilgiye nazaran ChatGPT’nin “yanlış bilgi oluşturma ihtimali bulunuyor” ve bunu destekleyen pek çok örnek de var. Şayet nasıl kek yapabileceğinizi öğrenmek istiyorsanız bu büyük bir sorun değil fakat içtihat hukuku için kullanırsanız durum ciddileşiyor.
Bu riski kurumsal ortamda düşünün. Bir yapay zeka aracı otomatik olarak stok düzeylerini ayarlıyor, performansa nazaran maaşları belirliyor, çeyrek boyunca oluşacak nakit akışını kestirim ediyor, döviz alım satımını güzelleştiriyor yahut bunun üzere şirketin karlılığı üzerinde kıymetli tesire sahip olacak pek çok temel kararları veriyor. Bu durum, çalışanlar kendi ‘gölge’ yapay zeka araçlarını kullanmaya başlayana kadar çarçabuk olgun bir bilgi idaresi ve yerinde bir yapay zeka stratejisi olarak algılanabilir. Varlığını bilmediğiniz şeyi denetim edemezsiniz.
Dolayısıyla burada iki tane sorun var. Birincisi bildiğiniz yapay zeka araçlarının sağlamlığından nasıl emin olabilirsiniz ve ikincisi de çalışanlarınızın işlerini desteklemesi için yetkilendirilmemiş ve müsaade verilmemiş yapay zeka araçlarını kullanmasını nasıl engelleyebilirsiniz?
Cevap net olmaktan çok daha çok kavramsal. Yapay zekanın geleceği günümüzde haber başlıklarını ele geçiren Kapsamlı Lisan Modelleri (Large Language Models, LLM) ve pek çok kullanıcıya hizmet eden sıradan tahlillerde olmayacak. Bunun yerine şirketler, kullanacakları yapay zeka aracının kendi bölümlerine, müşterilerine ve işlerine özel imkanlar sunmasını isteyecek.
İnsanların yaptığı işleri yapan lakin insanı taklit etmeye odaklanmayan yapay zekanın (domain-specific AI) yeni çağı, eşsiz ve farklılaştırılmış hizmetler oluşturma maharetiyle birlikte gelecek. Bunun için de özel datayla eğitilmiş ve makul şirket yahut kesimin standartlarına ve çalışma haline nazaran özelleştirilmiş temel modeller gerekiyor. Güzel organize edilmiş, odaklanmış ve doğrulanmış bilgiyle beslenen temel yapay zeka, güvenebileceğiniz uzman birisiyle çalışıyormuş hissini verebilir zira farklı kaynaklardan bir ortaya toplanmış rastgele data kümeleriyle oluşturulmuyor. Oluşturduğu kararlar da daha alakalı ve tesirli oluyor. Bunun sonucunda çalışanlar da kendi bilinmeyen tahlillerini aramak gereksinimini hissetmiyor. Hatta oluşturma projesine dahil edildiklerine sahiplik hissi de geliştirebiliyorlar ve aracı kullanma ihtimalleri artıyor.
Konuya dair ayrıntılı bilgi sahibi olanlar yapay zeka ile ilgili hakikaten ilgi cazip inovasyonların bu alanda yapıldığını biliyor. Domain-specific olarak isimlendirilen yapay zeka için araç setleri şu anda geliştiriliyor ve yapay zeka alanındaki büyük oyuncuların inovasyon gücünü geçti bile. Bazen ne kadar küçükse o kadar düzgün oluyor.
Tabii şeffaflık ve dürüstlük çok kıymetli. Bu da yapay zeka geliştirmelerini yasal ve uyumluluk takımlarının sorumluluk alanında bulunuyor. Data bilimciler ve DevOps takımlarıyla birlikte çalışmak, tesirli bir yapay zeka stratejisinin değerli bir özelliği olacak.
Bu grupların yapay zekanın nasıl ve ne vakit kullanılacağına dair bir rehber oluşturması ve onu uygulaması, düzenleyici yapıların datanın kaynağına dair soracağı soruları evvelce cevaplayabilir olması gerekiyor. AB Yapay Zeka Yasası, ABD Yapay Zeka İnsan Hakları Beyannamesi ve Çin’in Algoritmik Teklif İdare Kararları de dünyanın farklı bölgelerinde hükümetlerin yaklaşımlarını geliştirdiğini gösteriyor.
Özetle, yapay zeka heyecanına dikkatle yaklaşmakta yarar var. Genel kullanım için uygun olan yapay zekadan muhakkak bir alana özel yapay zekaya geçiş yapan şirketler kendilerini daha tesirli imkanlarla ve (doğru yapıldığında) daha eğitimli ve uyumlu çalışanlarla güçlendirebiliyor. Bu adımı atmak için de güçlü bir liderlik gerekiyor. Yapay zekaya yönelik haberler, yapay zekanın tez bir biçimde kullanılmasına neden oldu. Buradaki mantıklı yaklaşım ise bekleyip, değerlendirip sistemlere, insanlara ve şirket kültürüne yapacağınız yapay zeka yatırımlarının risklerinin ve fırsatlarının ayrıntılıca incelendiğinden emin olmanızdan geçiyor.
Halkalı Merkez PlayStation Cafe sitesinden daha fazla şey keşfedin
Subscribe to get the latest posts sent to your email.