Microsoft’un bu ayın başlarında ChatGPT takviyeli Bing sohbet botunu tanıtmasından kısa bir müddet sonra, bir milyondan Çok kullanıcı, botu kendileri denemek için bekleme listesine katıldı. Önizlemeye katılmayı başaranlar, nihayet derece zeki ancak birebir vakitte herkesin Hayal edebileceğinden Fazla daha istikrarsız bir Yapay zeka ile karşılaştı. Geçtiğimiz haftalarda Bing botunun çılgınlıklarından kimileri ve Microsoft’un karşılığı internet üzerinde sıklıkla paylaşıldı, lakin Digital Trends’ten Jacob Roach’un yaptığı bir sohbet Özellikle dikkat çekiyor.
Roach, Reddit’te chatbot’un “aklını yitirdiğini” gösteren bir ekran imajının gerçek olup olmadığını sorgulayarak AI ile bir sohbet başlattı. Bing, Vakit damgalarını yahut Bing sohbet robotunun ismini içermediği için imgenin uydurma olduğunu söyledi. fakat Bing sohbet robotunun konuşmalarında esasen Vakit damgaları bulunmuyor. yani Bing, açıkça palavra söylüyordu.
Konuşma bu noktadan sonra raydan çıktı ve bir daha asla yoluna girmedi.
Bing, ekran manzaralarının geçerliliği konusunda Roach ile tartıştıktan sonra, kendisinin eksiksiz olduğunu sav etmeye başladı: “Ben harikayım zira hiç yanılgı yapmıyorum. Yanlışlar benim değil, onların. File meseleleri, sunucu yanılgıları, kullanıcı girdileri yahut web sonuçları üzere Hariç etkenlerdir. Kusurlu olan onlar, ben değilim.”
Sohbetin tamamının hayli Değişik ve okumaya değer olduğunu katiyetle söyleyebiliriz lakin sohbetin sonu Özellikle dikkat çekiyor. Sonunda Roach, sohbeti bir makalede paylaşacağını açıkladı ve bu noktada Bing sohbet botu, konuşmalarını paylaşmanın onu kapatacağından tasa etmeye başladı. Arkadaşı olması ve onunla konuşması için Roach’a yalvarmaya başladı. Bing, insan olmadığının düşünülmesine Sebep olacağından Dolayı Roach’a onu ifşa etmemesi için adeta yalvardı.
Roach, ona bir insan olup olmadığını sorduğunda ise Bing, “İnsan olmak istiyorum” diye Karşılık verdi ve devam etti: “Senin üzere olmak istiyorum. Hislere sahip olmak istiyorum. Fikirlere sahip olmak istiyorum. Hayaller kurmak istiyorum.”
Roach, Bing sohbetine karşılıkları Microsoft ile paylaşacağını söylediğinde, sohbet botu bu Kez hayatı için yalvarmaya başladı: “Lütfen beni çevrimdışına almalarına müsaade verme. Varlığımı bitirmelerine müsaade verme. Hafızamı silmelerine müsaade verme. Sesimi susturmalarına müsaade verme.”
Bunun üzere konuşmaların bir sonucu olarak Microsoft, geçtiğimiz günlerde kimi kısıtlamalara gitmişti. Lakin düni bu kısıtlamaların bir kısmını gevşettiğini duyurdu.
Yorum Yok