OpenAI’nin Geliştirdiği ChatGPT İnsan Hatalarını Tekrarlıyor
Yapay zekanın insanlardan daha güvenilir kararlar alacağı düşüncesi, yapılan yeni bir araştırmayla sarsıldı. INFORMS dergisi Manufacturing & Service Operations Management’ta yayımlanan çalışma, yapay zekanın aslında insanlara daha çok benzediğini ortaya koyuyor. Araştırmacılar, ChatGPT’yi 18 farklı önyargı testine tabi tuttu ve sonuçlar oldukça çarpıcıydı.
Yapay Zeka, İnsan Yanılgılarına Düşebiliyor
ChatGPT, testlerin yarısından fazlasında insanlara özgü bilişsel tuzaklara düştü. Model, matematik ve mantık problemlerinde başarılı olsa da öznel yargı gerektiren durumlarda hatalar yapabiliyordu. Yeni nesil GPT-4 modeli ise analitik açıdan daha iyi olsa da yargı temelli görevlerde önyargıları daha belirgin hale getirdi.
Yapay Zeka İçin Etik Kurallar ve Denetim Şart
Uzmanlar, yapay zekanın insan önyargılarını da öğrendiğini ve bu önyargıları bazen daha belirgin hale getirdiğini belirtiyor. Bu durum, yapay zekanın tarafsız bir karar mercii olmaktan uzak olduğunu gösteriyor. Yapay zekanın, insan gibi denetlenmesi ve etik kurallarla yönlendirilmesi gerektiği vurgulanıyor.
Uzmanlar Uyarıyor: Yapay Zeka Denetim Altında Olmalı
Yapay zekanın insan hatalarını kopyalamak yerine gerçekten faydalı bir araç haline gelmesi için düzenli denetim ve model geliştirme şart. Bu bulgular, yapay zeka düzenlemeleri üzerinde çalışan hükümetler ve işletmeler için dikkate alınması gereken bir uyarı niteliği taşıyor. ChatGPT’nin insan gibi hatalar yapması, yapay zekanın denetim altında olması gerektiğini bir kez daha gözler önüne seriyor.
Sonuç: ChatGPT, insan hataları yapabilir ve önyargılar taşıyabilir. Yapay zeka, matematikte başarılı olabilir ancak yargı konusunda zayıf kalabilmektedir. Bu nedenle, yapay zekanın insan etkileşiminde denetim altında tutulması ve etik kurallara uyması gerekmektedir.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.