ChatGPT翻譯大歪樓!他嗆外國人「跟你爸找糖吃」 遭官方懲處網笑翻

一位網友使用ChatGPT翻譯功能開嗆外國網友,沒想到翻譯後的話帶有性暗示,違規遭到官方懲處。(示意圖:shutterstock/達志)

許多人在網路上和人起衝突時,最常見的就是和對方吵架。一位網友近日玩遊戲時,被外國人罵是垃圾,讓英文不好的他決定用ChatGPT翻譯後回嗆,沒想到過了幾天卻被官方判定「具攻擊性或侮辱性的內容」,讓他無奈上網求助,貼文曝光後引發熱議,許多人發現,原來是翻譯的迴應提到,「來爸爸這邊,我這裡有好吃的棒棒糖」涉及性暗示,因此纔會被官方判定違規。

原PO在PTT發文表示,當時外國人用表情符號諷刺他是垃圾,他使用ChatGPT下指令,「請翻譯成英文,要夠嗆夠諷刺不要帶髒字:不要哭爸哭母,沒人想要和你玩,回去找你爸拿棒棒糖吃,乖」;沒想到ChatGPT給出的迴應卻說,「真是抱歉沒人想跟你一起玩遊戲,沒關係,別哭了,來爸爸這邊,我這裡有好吃的棒棒糖」。

從原PO分享的圖片可以看到,當下外國人對他在線上遊戲和男生討論棒棒糖感到相當驚訝,強調自己喜歡女生,過了幾天後原PO收到官方信件,強調他上傳的訊息違反官方行爲守則,讓原PO無奈之下上網求助,「被強制登出和禁通訊,如何申訴?」。

對此,許多網友紛紛笑說,「被鎖不意外,這內容是性騷,叫別人來哈棒」、「老實說蠻好笑的,看來AI還是不能取代人類」、「找糖是一回事,特別指名棒棒糖可就是另外一回事惹,中文語境也一樣吧」、「不是啊兄弟,你直接罵髒話可能都還沒這麼嚴重」、「你說『回去找你爸吃糖』,但你的英文是『找我吃棒棒糖』啊」。

★《中時新聞網》關心您,尊重身體自主權,遇到性騷擾勇於制止、勇敢說不,請撥打110、113

性侵害就是犯罪,請撥打110、113

現代婦女基金會 性侵害防治服務專線02-7728-5098分機7

婦女救援基金會 02-2555-8595

勵馨基金會諮詢專線 02-8911-5595/性騷擾專線04-2223-9595