Bu çalışmanın amacı yakın zamanda kullanıma sunulmuş olan ve büyük dil modeline dayanan sohbet robotu ChatGPT’nin çeviri uygulamaları ve çeviri eğitimine yansımalarını irdelemektir. Bu amaç doğrultusunda ChatGPT’nin ücretsiz olarak erişilebilen 3.5 versiyonunun bir “çeviri görevi tanımı” (“translation brief”) (Nord, 1997, s. 30) doğrultusunda yaptığı çeviri ve “istem”lere (“prompt”) verdiği yanıtlar incelenmiştir. İnceleme nesnesini sağlık alanından bir bilgilendirici metin oluşturmaktadır. ChatGPT’ye çeviri “iş”inin (“commission”) “skopos”unu (Vermeer, 2000, s. 228) içeren bir “çeviri görevi tanımı” verilmiş; bu tanım doğrultusunda bir hasta bilgilendirme broşürü İngilizceden Türkçeye çevriltilmiş; MQM’de (Multidimensional Quality Metrics) belirtilen “doğruluk” (“accuracy”), “akıcılık” (“fluency”) ve “terminoloji” (“terminology”) hataları çeviride işaretlenmiştir. Ardından çeviri hatalarının düzeltilmesiyle ilgili bir dizi istem verilmiş ve sohbet robotunun çeviri kararları sorgulanmıştır. İncelemenin sonucunda robotun kendisine verilen anlık istemleri genellikle başarılı bir şekilde yerine getirirken bazı istemlere yanıt veremediği görülmüştür. Özellikle de terminoloji hatalarını düzeltme bağlamında, gerçek hayatta var olmayan bir terimi varmışçasına kullandığı, çeviri kararlarını gerekçelendirirken hatalı bilgiler verebildiği tespit edilmiştir. Dolayısıyla, insan çevirmenin müdahalesinin, özellikle de yüksek risk taşıyan metinlerin çevirisinde, şart olduğu görülmüştür. Nitekim aldığı çeviri kararlarının sorumluluğunu taşımak insan çevirmene özgüdür. Elde edilen bulgular doğrultusunda, çalışmada yapay zekâ teknolojilerinin beraberinde getirdiği, sohbet robotuna istem verme gibi yeni görevlerin çeviri eğitimine dahil edilmesi ve çeviri işlerinde ChatGPT vb. uygulamaları kullanmanın avantaj ve dezavantajlarıyla ilgili öğrencilerde farkındalık yaratılması önerilmektedir.
This study aims to scrutinize the translation feature of ChatGPT, a chatbot based on large language model that has been made available recently, and its impacts on translation practices and translator training. With this aim, a translation made by the free version of the chatbot (ChatGPT 3.5) in accordance with a “translation brief” (Nord, 1997, p. 30) and its responses to the “prompts” have been examined. An informative text from the field of health constitutes the object of this study. ChatGPT was given a “translation brief”, containing the “skopos” of the “translation commission” (Vermeer, 2000, p. 228), and asked to translate a patient information brochure from English to Turkish in line with the brief; and the “accuracy”, “fluency” and “terminology” errors as specified in MQM (Multidimensional Quality Metrics) were annotated in the translated text. Then, a series of prompts were given regarding the correction of translation errors, and the chatbot was inquired about its translation decisions. The results have shown that while the robot generally successfully fulfilled the instant prompts, it could not respond to some of them. It has been observed that particularly in terms of correcting terminology errors, the robot might use a term that does not exist in real life and that it might give incorrect information while justifying its translation decisions. It has been seen that the intervention of the human translator is essential, especially when translating high-risk texts. Thus, taking responsibility for the translation decisions made is unique to human translators. In line with these findings, this study recommends including new tasks brought by artificial intelligence technologies, such as prompting the chat robot, into translator training and raising awareness among students in terms of advantages and disadvantages of using applications like ChatGPT in translation commissions.