Yapay zeka sohbet robotu ChatGPT, kullanıcıların sıklıkla tıbbi, hukuki ve finansal konularda spesifik bilgi istemesi üzerine yeni bir döneme girdi. NEXTA’nın haberine göre, 29 Ekim itibarıyla ChatGPT’nin kullanım kuralları değişti. OpenAI, artan dava riskleri ve etik sorumluluklar nedeniyle ChatGPT’nin doğrudan tavsiye vermesini yasakladı.

Artık Yalnızca İlkeleri Açıklayacak
Yeni dönemde ChatGPT, kullanıcıya reçete, yatırım tavsiyesi ya da hukuki yönlendirme vermeyecek. Bunun yerine yalnızca genel ilkeleri açıklayacak, mekanizmaları özetleyecek ve kullanıcıyı bir uzmana yönlendirecek.
Örneğin, artık “hangi ilaç kullanılmalı”, “hangi hisse alınmalı” veya “hangi dilekçe yazılmalı” gibi sorulara net yanıtlar sunmayacak. Model, kullanıcıyı “bir doktora, avukata ya da finans danışmanına başvurun” uyarısıyla yönlendirecek.

Sağlık Tarayıcısı Gibi Kullanılması Riskliydi
ChatGPT’nin milyonlarca kullanıcı tarafından “her şeyi bilen bir asistan” gibi görülmesi, şirketi büyük bir sorumluluk altına sokmuştu. Pek çok kullanıcı basit bir belirtiyi yazarak kendi kendine teşhis koymaya çalışıyor, hatta modelin verdiği bilgileri ciddi hastalıklarla ilişkilendiriyordu.

Ancak tıbbi tanı için laboratuvar testleri, uzman muayenesi ve klinik değerlendirme gibi süreçlerin gerekli olduğu vurgulandı. ChatGPT’nin bu aşamalardan hiçbirini gerçekleştiremeyeceği, bu nedenle yanıltıcı sonuçlar doğurabileceği belirtildi.