ChatGPT ve öykünücülerinin gelişi, Yapay Zeka temasını sayısız tartışmanın merkezine getirdi. Ancak muhtemelen en ilgili ama yeterince tartışılmayan yön, çok fazla dikkat etmemiz gerektiğini asla düşünmediğimiz yeni bir düşünme kategorisini, akla yatkınlığı öne çıkarmış olmamızdır.
Sözcük inandırıcı, olası, mantıklı olduğu için makul olanı kabul edilebilir ve güvenilir olarak tanımlar. Doğru değil ama muhtemel, gerekli değil ama kabul edilebilir, tartışılmaz değil ama inandırıcı ve inandırıcı. Bu anlamda, mantıksal sıfatı bile insan mantığının özelliği olarak uygun bir şekilde anlaşılmalıdır, bu nedenle biçimsel ve algoritmik mantığın değil, sezgi yanılgısına tabidir.
Cehenneme giden yollar iyi niyet taşlarıyla döşenmişse, mantıksızlığa giden yolların da akla yatkınlıkla döşendiğini söyleyebiliriz. Ve konuşma yapay zekasının geniş, çok hızlı yayılması göz önüne alındığında bunun ne kadar derinden doğru olduğunu anlamak için iyi, çok iyi nedenler var.
Bu algoritmalarla etkileşim, en farklı konularda bir diyaloğun yapılabilme kolaylığı açısından dikkat çekicidir. Cevaplar, gramer ve sözdizimsel açıdan doğru bir şekilde oluşturulmuştur ve özellikle şaşırtıcı olan, sorunun anlamını merkeze alıyor gibi göründükleri için “mantıklıdır”.
Yaratıcıları bile Great Linguistic Models (LLM) sınıfına giren bu algoritmaların özelliklerine şaşırdıklarını söylediler. Sadece olumlu özellikler değil, aynı zamanda hakkında daha az konuşulan olumsuz özellikler de, sanki bir insanmış gibi tepki veren bir makine bizi büyüledi. Hepsinden biri, “halüsinasyonlara” maruz kaldığında, tamamen yanlış, ancak sıfırdan daha az “makul” olmayan cevaplar icat ediyor. Bunu bir kişi yapsaydı, onu dolandırıcı veya sarhoş olarak sınıflandırırdık, ona algoritmaya kendini iyi hissettiren bir sıfat verdik, bu da doğru şeyi cevaplamak isteyeceği anlamına gelir, ancak kendi hatası olmaksızın başı belada demektir. ve halüsinasyon görüyor. Gelecekte daha iyisini yapacak, sadece ona biraz yardım et.
O nasıl çalışır
Ancak bu noktada bu algoritmanın nasıl çalıştığını sormak yerinde olacaktır. Yalnızca neyle karşı karşıya olduğumuzu anlayarak, alçakgönüllü, ikna edici ve büyüleyici olmaya programlanmış bir arayüzün arkasına saklanan tuzaklardan kaçınarak potansiyelinden daha iyi yararlanabiliriz.
Düşününce sanki bir illüzyonistin sahnesi için her şey hazırlanmış gibi: Algımız kısıtlı, bilgisayar başında oturuyoruz ve sadece cümle okuyup yazabiliyoruz. Aynı zamanda merakımız, bize herhangi bir soruya makul ve makul cevaplar verebilen “ne” hakkında bir fikir vermeye çalışan hayal gücümüzü harekete geçirir. İnsanlara eşit veya ondan daha üstün bir Yapay Zeka (AI) mitine kapılmanın cazibesi neredeyse karşı konulamaz. Bu nedenle, bu algoritmaların bugün ve yarın yaşamlarımız üzerindeki etkisinin ne olacağını düşünmek için ChatGPT ve arkadaşları tarafından üretilen illüzyonun arkasında ne olduğunu bulmak çok önemli, hatta neredeyse acil diyebilirim.
Bir LLM’nin anlambilimden çok olasılık hesabıyla ilgisi vardır. Özünde aslında sadece iki bileşenden oluşur: önceden var olan bir bilgi külliyatında mevcut olan kelime dizilerinin olasılıklarını karakterize eden, belki de çok büyük bir sayılar dizisi: bu olasılıkların belirlendiği bir dizi prosedür. aşağıdaki kelimeyi bir cümlede (dolayısıyla GPT’nin G’si) hesaplamak ve “oluşturmak” için hesaplandı, kullanıldı ve birleştirildi.
WWW’nin ücretsiz verileri külliyatında (kitaplar, bloglar, Wikipedia, vb.) bulunan İtalyanca kelime çiftlerini karakterize eden olasılıkları ele alalım: kelime köpek tarafından takip edilebilir havlar, sızlanır, yer, eğitilir, vb.ama neredeyse hiç takip etmiyor kare, çelik, derinve benzeri.
Düzinelerce LLM vardır ve bunların gelişimi kesin bir bilim olmaktan uzaktır. Bu modellerin genel bir özelliği, modelin boyutu büyüdükçe daha da iyi hale gelen belirgin dilsel yeteneklerin ortaya çıkmasıdır. Bu nedenle, modelleri oluşturan parametre sayısının, ChatGPT 3.5’i eğitmek için 175 milyar parametreden, aynı algoritmanın 4. sürümü için 340 milyarın üzerine çıktığını görüyoruz. Her ne kadar yaklaşık olsalar da bu devasa sayılar, konunun özünü anlamamızı sağlamalıdır: Web’de bulunan devasa metin birikimi olmadan bu kadar büyük veritabanları var olamaz; Milyonlarca anlamsız cümleyi internete koymanın zamanı geldi.
Bir örnek
Bu noktayı daha iyi anlamak için mümkün olan en temel örnekle başlayalım.
İtalyanca bir metin külliyatından elde edilen olasılıklara göre harfleri birbiri ardına yerleştirerek bir dizi oluşturmak için bir bilgisayarı programlamak zor değildir. Daha hızlı hale getirmek için ChatGPT’den doğrudan bu türde bir dizi oluşturmasını istedim ve yanıt şuydu, açıkçası anlamsızdı:
Şimdi yine İtalyanca metinlere özgü bir olasılık ölçütünden türetilen boşlukları tanıtalım ve elimizde:
Aynı şeyi bitişik kelime çiftleri için yapmaya devam ediyoruz: İtalyanca dilinin eksiksiz bir “sözlüğü” 250.000 kelime içerebilir, ancak 50.000 kelime, web’deki ifadelerin büyük çoğunluğunu yönetmek için yeterlidir. 50.000’in karesi iki milyar beş yüz milyona eşittir, bu bir insan için çok büyük bir sayıdır, ancak ağı dolaşarak kelime çiftlerinin sıklığını ölçebilen ve bunları cümlelerinkine benzer bir kriterle cümleler oluşturmak için kullanabilen bir bilgisayar tarafından yönetilebilir. önceki tablo
Bu alıştırmayı yaparak, olasılık tekniklerini (Dönüştürme) kullanarak, yeni kelimeler üretirken yeni üretilen cümlelerin izini sürmek için aşağıdaki metin elde edilebilir, örneğin:
bir ayakkabı kutusu
Ancak, tüm bunlar hala yeterli değil. LLM’ler kör ve mekanik bir şekilde çalışırlar ve geçmişte tartışmalı konuları ve toplu pazarlamaları için kabul edilemez içerikleri tartışmaya ikna etmenin ne kadar kolay olduğu gözlemlenmiştir. ChatGPT’nin sunulamayan sürüm 3’ten pazarlanabilir sürüm 3.5’e geçişine izin veren unsurlardan biri, bu LLM’nin bu temaları tartışmasını engelleyen, tam olarak karanlık ağa özgü bir dizi temayı kaldırma yeteneğiydi. Saati 1-2 dolara, en iğrenç ve tartışmalı şeyleri aylarca okumak ve yorumlamak zorunda kalan yüzlerce, belki de binlerce insanı veri etiketleyici rolünde kullanarak bu sonuca nasıl ulaşıldığı çok ciddi. bu nette bulunabilir.
Peki ChatGPT’nin zekası nerede? ChatGPT’yi sorgulayan kullanıcı, çok yönlü bir insanlığın ürününü temsil eden sayısız aynada kendisini yansıtır ve önemsiz olmayan yanıtlar alır (ChatGPT kopyala-yapıştır yapmaktan nefret eder), ancak önyargı ve hatalar da dahil olmak üzere kültür tarafından derinden emprenye edilmiş tüm bu cevaplar bilmeden ağın gelişimine katkıda bulunanlar.
Bu nedenle, ChatGPT’nin nasıl bir ayakkabı kutusu zekasına sahip olduğunu anlıyoruz. Peki bu teknoloji neden bu kadar hızlı yayılıyor? Bu, büyük ölçüde, yaptığımız, söylediğimiz, yazdığımız şeylerin çok büyük bir kısmının, hemcinslerimiz tarafından halihazırda yapılmış, söylenmiş veya yazılmış şeylerin bitmez tükenmez tekrarı olmasından kaynaklanmaktadır. Bireysel bakış açımızdan, bunun farkında değiliz, ancak ağ ve LLM’ler sayesinde bu, tüm olası kanıtlarla ortaya çıkıyor.
ChatGPT 4.0’ın kullanımı aslında, insan etkinliğinin tekrarlılık ve büyük miktarda veri varlığı ile karakterize edilen tüm sektörlerini yeniden tasarlamaktır. Kimyasal-biyolojik araştırmalardan istatistiksel çalışmalara, bilgisayar programcılığından metin çevirisine. Doğal dilde sorgulama ve yanıt alma olasılığı, karmaşık bilgileri yönetmeyi çok daha kolay ve hızlı hale getirir.
Bunların arasında, bu sistemlerin yazılım geliştirmeye yardımcı olma yeteneği özellikle ilgi çekicidir ve bu çok önemli endüstri ve inovasyon sektöründe hızla devrim yaratmaktadır. ChatGPT gibi bir LLM’nin karmaşık sembolik muhakemeyi titiz bir şekilde geliştirebilen bir yazılımla arayüzlenmesinde de ilerleme kaydediliyor, böylece akla yatkınlık ve halüsinasyonlar sorunu ele alınıyor.
Bu yön özellikle önemlidir. Bu sağduyu karıştırıcılarının sorgulanmasıyla elde edilen sonuçların belirsizliği, bu diyalogların ürününün belirli bir sektörün standardı ile karşılaştırıldığında düşük-orta düzeyde bir sonucu temsil ettiği anlamına gelir. Yanıtlar doğru ya da yanlış değil, ama ne anlama geliyorsa makul. Algoritmanın sağladığı olgusal hakikat unsurlarına her derinlemesine baktığınızda, bazen çok hoş olmayan sonuçlara yol açan sürprizlerle karşılaşma riskini alırsınız.
Gelecek
Bu nedenle bir sonraki adım, ChatGPT’yi sembolik manipülasyon programlarıyla veya kesin sözdizimsel kurallarla kontrol edilen programlarla bir arayüz olarak kullanmaktır: ChatGPT’nin öne çıktığı kesin olmayan doğal dili kullanmanıza izin veren yüzlerce API (Uygulama Programı Arayüzü) zaten mevcuttur. Emülleri, bu teknolojinin gerçek kullanımı için gerekli olan güvenilir sonuçları çok daha az çabayla ve çok daha hızlı bir şekilde elde etmek için profesyonel yazılımlarla arayüz oluşturmak için. Bu, şu anda yenilik ve gelişimin sınırıdır: bugün bu tür programları ve bunların arayüzlerini kullanmayı öğrenmek, yarının zenginleri ve fakirleri arasındaki farkı yaratacaktır.
*Roberto Battiston, Trento Üniversitesi’nde Deneysel Fizik Profesörüdür. Mayıs 2014’ten Kasım 2018’e kadar İtalyan Uzay Ajansı’nın (ASI) başkanıydı. 2019’dan beri Avrupa Parlamentosu’nu temsilen GSA’nın (Avrupa Birliği Uzay Programı Ajansı) Yönetim Kurulu üyesidir.
Sözcük inandırıcı, olası, mantıklı olduğu için makul olanı kabul edilebilir ve güvenilir olarak tanımlar. Doğru değil ama muhtemel, gerekli değil ama kabul edilebilir, tartışılmaz değil ama inandırıcı ve inandırıcı. Bu anlamda, mantıksal sıfatı bile insan mantığının özelliği olarak uygun bir şekilde anlaşılmalıdır, bu nedenle biçimsel ve algoritmik mantığın değil, sezgi yanılgısına tabidir.
Cehenneme giden yollar iyi niyet taşlarıyla döşenmişse, mantıksızlığa giden yolların da akla yatkınlıkla döşendiğini söyleyebiliriz. Ve konuşma yapay zekasının geniş, çok hızlı yayılması göz önüne alındığında bunun ne kadar derinden doğru olduğunu anlamak için iyi, çok iyi nedenler var.
Bu algoritmalarla etkileşim, en farklı konularda bir diyaloğun yapılabilme kolaylığı açısından dikkat çekicidir. Cevaplar, gramer ve sözdizimsel açıdan doğru bir şekilde oluşturulmuştur ve özellikle şaşırtıcı olan, sorunun anlamını merkeze alıyor gibi göründükleri için “mantıklıdır”.
Yaratıcıları bile Great Linguistic Models (LLM) sınıfına giren bu algoritmaların özelliklerine şaşırdıklarını söylediler. Sadece olumlu özellikler değil, aynı zamanda hakkında daha az konuşulan olumsuz özellikler de, sanki bir insanmış gibi tepki veren bir makine bizi büyüledi. Hepsinden biri, “halüsinasyonlara” maruz kaldığında, tamamen yanlış, ancak sıfırdan daha az “makul” olmayan cevaplar icat ediyor. Bunu bir kişi yapsaydı, onu dolandırıcı veya sarhoş olarak sınıflandırırdık, ona algoritmaya kendini iyi hissettiren bir sıfat verdik, bu da doğru şeyi cevaplamak isteyeceği anlamına gelir, ancak kendi hatası olmaksızın başı belada demektir. ve halüsinasyon görüyor. Gelecekte daha iyisini yapacak, sadece ona biraz yardım et.
O nasıl çalışır
Ancak bu noktada bu algoritmanın nasıl çalıştığını sormak yerinde olacaktır. Yalnızca neyle karşı karşıya olduğumuzu anlayarak, alçakgönüllü, ikna edici ve büyüleyici olmaya programlanmış bir arayüzün arkasına saklanan tuzaklardan kaçınarak potansiyelinden daha iyi yararlanabiliriz.
Düşününce sanki bir illüzyonistin sahnesi için her şey hazırlanmış gibi: Algımız kısıtlı, bilgisayar başında oturuyoruz ve sadece cümle okuyup yazabiliyoruz. Aynı zamanda merakımız, bize herhangi bir soruya makul ve makul cevaplar verebilen “ne” hakkında bir fikir vermeye çalışan hayal gücümüzü harekete geçirir. İnsanlara eşit veya ondan daha üstün bir Yapay Zeka (AI) mitine kapılmanın cazibesi neredeyse karşı konulamaz. Bu nedenle, bu algoritmaların bugün ve yarın yaşamlarımız üzerindeki etkisinin ne olacağını düşünmek için ChatGPT ve arkadaşları tarafından üretilen illüzyonun arkasında ne olduğunu bulmak çok önemli, hatta neredeyse acil diyebilirim.
Bir LLM’nin anlambilimden çok olasılık hesabıyla ilgisi vardır. Özünde aslında sadece iki bileşenden oluşur: önceden var olan bir bilgi külliyatında mevcut olan kelime dizilerinin olasılıklarını karakterize eden, belki de çok büyük bir sayılar dizisi: bu olasılıkların belirlendiği bir dizi prosedür. aşağıdaki kelimeyi bir cümlede (dolayısıyla GPT’nin G’si) hesaplamak ve “oluşturmak” için hesaplandı, kullanıldı ve birleştirildi.
WWW’nin ücretsiz verileri külliyatında (kitaplar, bloglar, Wikipedia, vb.) bulunan İtalyanca kelime çiftlerini karakterize eden olasılıkları ele alalım: kelime köpek tarafından takip edilebilir havlar, sızlanır, yer, eğitilir, vb.ama neredeyse hiç takip etmiyor kare, çelik, derinve benzeri.
Düzinelerce LLM vardır ve bunların gelişimi kesin bir bilim olmaktan uzaktır. Bu modellerin genel bir özelliği, modelin boyutu büyüdükçe daha da iyi hale gelen belirgin dilsel yeteneklerin ortaya çıkmasıdır. Bu nedenle, modelleri oluşturan parametre sayısının, ChatGPT 3.5’i eğitmek için 175 milyar parametreden, aynı algoritmanın 4. sürümü için 340 milyarın üzerine çıktığını görüyoruz. Her ne kadar yaklaşık olsalar da bu devasa sayılar, konunun özünü anlamamızı sağlamalıdır: Web’de bulunan devasa metin birikimi olmadan bu kadar büyük veritabanları var olamaz; Milyonlarca anlamsız cümleyi internete koymanın zamanı geldi.
Bir örnek
Bu noktayı daha iyi anlamak için mümkün olan en temel örnekle başlayalım.
İtalyanca bir metin külliyatından elde edilen olasılıklara göre harfleri birbiri ardına yerleştirerek bir dizi oluşturmak için bir bilgisayarı programlamak zor değildir. Daha hızlı hale getirmek için ChatGPT’den doğrudan bu türde bir dizi oluşturmasını istedim ve yanıt şuydu, açıkçası anlamsızdı:
ionotoloscchetiamente posssullti’de eraniotraianiusorsechezattoral prossertion
Şimdi yine İtalyanca metinlere özgü bir olasılık ölçütünden türetilen boşlukları tanıtalım ve elimizde:
Harf çiftleri ile aynı işlemi yapmaya devam ediyoruz. Örneğin, alfabenin 26 harfine sahipsek, 262 = 676 kombinasyona sahibiz ve belirli bir harfin ardından başka bir harfin gelmesi olasılığını tanımlayan 676 hücrelik bir matris oluşturarak bir digraf oluşturabiliriz. Açıkçası, yalnızca belirli çiftler olasıdır, asla gerçekleşmeyen pek çok şey vardır ve birkaçı da son derece nadirdir. İtalyan diliyle ilgili olasılık kriterlerini her zaman izleyerek, boşluklar ve noktalama işaretleri ile ayrılan digrafları gruplandırmayı isteyerek, şunları elde edebiliriz:Başka bir kullanıcı, lti’deki olası bir atama konumunun bilinen yasal prosserisyonunu kullanamadı.
Hala anlaşılmaz bir metin ama anlaşılır “kelimeler” ve “cümleler” ortaya çıkıyor gibi görünüyor.Ne, güneş. Yerine yağmur. Ancak var. Ama nasıl olur? Yıldızlar arasında. Ne kadar güzel! Oh bak! Bir dakika. Ve sonra tekrar. Her zaman olduğu gibi. Gece. Kalpte. Sevgiler. Her gün. Senin için.
Aynı şeyi bitişik kelime çiftleri için yapmaya devam ediyoruz: İtalyanca dilinin eksiksiz bir “sözlüğü” 250.000 kelime içerebilir, ancak 50.000 kelime, web’deki ifadelerin büyük çoğunluğunu yönetmek için yeterlidir. 50.000’in karesi iki milyar beş yüz milyona eşittir, bu bir insan için çok büyük bir sayıdır, ancak ağı dolaşarak kelime çiftlerinin sıklığını ölçebilen ve bunları cümlelerinkine benzer bir kriterle cümleler oluşturmak için kullanabilen bir bilgisayar tarafından yönetilebilir. önceki tablo
Bu alıştırmayı yaparak, olasılık tekniklerini (Dönüştürme) kullanarak, yeni kelimeler üretirken yeni üretilen cümlelerin izini sürmek için aşağıdaki metin elde edilebilir, örneğin:
Bu birkaç temel adımdan sonra, algoritmanın körü körüne kelime kelime ekleyerek elde ettiği, “tanım gereği” çok doğal görünen cümleler kurma yeteneğinin ortaya çıktığını çok iyi not ediyoruz. Bu sınırlı düzeydeki algoritmik karmaşıklık, “Albert Einstein kimdir?” sorusuna mantıklı ve sözdizimsel olarak kabul edilebilir bir yanıtın elde edilmesini şimdiden sağlayabilir:Sabah erkenden uyanır, pencereyi açar ve dışarı bakar. Güneş mavi gökyüzünde parlıyor. Kendine bir fincan kahve yapar ve her yudumun tadını çıkarır. Sonra en sevdiği kıyafetlerini giyer ve evden çıkar…
Cevabın doğruluğu, LLM’nin üzerinde eğitildiği veri tabanına bağlı olacaktır. Yetersiz bilgi veritabanları, Ulm ile Berlin’in karıştırılmasına veya yanlış doğum tarihine yol açabilir. Şimdi bu teknolojinin temel avantajının, yani insan muhataplarıyla doğal dilde sohbet edebilme yeteneğinin nereden geldiğini anlamaya başlayalım. Ancak aynı zamanda, bu arayüzün insanlar arasındaki benzer etkinliğin özü açısından ne kadar yanıltıcı ve taklitçi olduğunu anlıyoruz.Albert Einstein 1879’da Ulm’da doğdu. 20. yüzyılın en büyük bilim adamı olarak kabul edilir.
bir ayakkabı kutusu
Ancak, tüm bunlar hala yeterli değil. LLM’ler kör ve mekanik bir şekilde çalışırlar ve geçmişte tartışmalı konuları ve toplu pazarlamaları için kabul edilemez içerikleri tartışmaya ikna etmenin ne kadar kolay olduğu gözlemlenmiştir. ChatGPT’nin sunulamayan sürüm 3’ten pazarlanabilir sürüm 3.5’e geçişine izin veren unsurlardan biri, bu LLM’nin bu temaları tartışmasını engelleyen, tam olarak karanlık ağa özgü bir dizi temayı kaldırma yeteneğiydi. Saati 1-2 dolara, en iğrenç ve tartışmalı şeyleri aylarca okumak ve yorumlamak zorunda kalan yüzlerce, belki de binlerce insanı veri etiketleyici rolünde kullanarak bu sonuca nasıl ulaşıldığı çok ciddi. bu nette bulunabilir.
Peki ChatGPT’nin zekası nerede? ChatGPT’yi sorgulayan kullanıcı, çok yönlü bir insanlığın ürününü temsil eden sayısız aynada kendisini yansıtır ve önemsiz olmayan yanıtlar alır (ChatGPT kopyala-yapıştır yapmaktan nefret eder), ancak önyargı ve hatalar da dahil olmak üzere kültür tarafından derinden emprenye edilmiş tüm bu cevaplar bilmeden ağın gelişimine katkıda bulunanlar.
Bu nedenle, ChatGPT’nin nasıl bir ayakkabı kutusu zekasına sahip olduğunu anlıyoruz. Peki bu teknoloji neden bu kadar hızlı yayılıyor? Bu, büyük ölçüde, yaptığımız, söylediğimiz, yazdığımız şeylerin çok büyük bir kısmının, hemcinslerimiz tarafından halihazırda yapılmış, söylenmiş veya yazılmış şeylerin bitmez tükenmez tekrarı olmasından kaynaklanmaktadır. Bireysel bakış açımızdan, bunun farkında değiliz, ancak ağ ve LLM’ler sayesinde bu, tüm olası kanıtlarla ortaya çıkıyor.
ChatGPT 4.0’ın kullanımı aslında, insan etkinliğinin tekrarlılık ve büyük miktarda veri varlığı ile karakterize edilen tüm sektörlerini yeniden tasarlamaktır. Kimyasal-biyolojik araştırmalardan istatistiksel çalışmalara, bilgisayar programcılığından metin çevirisine. Doğal dilde sorgulama ve yanıt alma olasılığı, karmaşık bilgileri yönetmeyi çok daha kolay ve hızlı hale getirir.
Bunların arasında, bu sistemlerin yazılım geliştirmeye yardımcı olma yeteneği özellikle ilgi çekicidir ve bu çok önemli endüstri ve inovasyon sektöründe hızla devrim yaratmaktadır. ChatGPT gibi bir LLM’nin karmaşık sembolik muhakemeyi titiz bir şekilde geliştirebilen bir yazılımla arayüzlenmesinde de ilerleme kaydediliyor, böylece akla yatkınlık ve halüsinasyonlar sorunu ele alınıyor.
Bu yön özellikle önemlidir. Bu sağduyu karıştırıcılarının sorgulanmasıyla elde edilen sonuçların belirsizliği, bu diyalogların ürününün belirli bir sektörün standardı ile karşılaştırıldığında düşük-orta düzeyde bir sonucu temsil ettiği anlamına gelir. Yanıtlar doğru ya da yanlış değil, ama ne anlama geliyorsa makul. Algoritmanın sağladığı olgusal hakikat unsurlarına her derinlemesine baktığınızda, bazen çok hoş olmayan sonuçlara yol açan sürprizlerle karşılaşma riskini alırsınız.
Gelecek
Bu nedenle bir sonraki adım, ChatGPT’yi sembolik manipülasyon programlarıyla veya kesin sözdizimsel kurallarla kontrol edilen programlarla bir arayüz olarak kullanmaktır: ChatGPT’nin öne çıktığı kesin olmayan doğal dili kullanmanıza izin veren yüzlerce API (Uygulama Programı Arayüzü) zaten mevcuttur. Emülleri, bu teknolojinin gerçek kullanımı için gerekli olan güvenilir sonuçları çok daha az çabayla ve çok daha hızlı bir şekilde elde etmek için profesyonel yazılımlarla arayüz oluşturmak için. Bu, şu anda yenilik ve gelişimin sınırıdır: bugün bu tür programları ve bunların arayüzlerini kullanmayı öğrenmek, yarının zenginleri ve fakirleri arasındaki farkı yaratacaktır.
*Roberto Battiston, Trento Üniversitesi’nde Deneysel Fizik Profesörüdür. Mayıs 2014’ten Kasım 2018’e kadar İtalyan Uzay Ajansı’nın (ASI) başkanıydı. 2019’dan beri Avrupa Parlamentosu’nu temsilen GSA’nın (Avrupa Birliği Uzay Programı Ajansı) Yönetim Kurulu üyesidir.