ข้อกังวลด้านจริยธรรมของ ChatGPT

ข้อมูลการติดฉลาก
มีการเปิดเผยโดยการสอบสวนของนิตยสาร TIME ว่าเพื่อสร้างระบบความปลอดภัยจากเนื้อหาที่เป็นพิษ (เช่น การล่วงละเมิดทางเพศ ความรุนแรง การเหยียดเชื้อชาติ การกีดกันทางเพศ ฯลฯ) OpenAI ใช้คนงานชาวเคนยาจากภายนอกที่มีรายได้น้อยกว่า 2 ดอลลาร์ต่อชั่วโมงในการติดฉลากเนื้อหาที่เป็นพิษป้ายกำกับเหล่านี้ใช้เพื่อฝึกโมเดลให้ตรวจหาเนื้อหาดังกล่าวในอนาคตคนงานภายนอกต้องเผชิญกับเนื้อหาที่เป็นพิษและเป็นอันตรายซึ่งพวกเขาอธิบายว่าประสบการณ์ดังกล่าวเป็น "การทรมาน"หุ้นส่วนด้านการเอาท์ซอร์สของ OpenAI คือ Sama ซึ่งเป็นบริษัทฝึกอบรมข้อมูลซึ่งตั้งอยู่ในซานฟรานซิสโก รัฐแคลิฟอร์เนีย

แหกคุก
ChatGPT พยายามปฏิเสธข้อความแจ้งที่อาจละเมิดนโยบายเนื้อหาอย่างไรก็ตาม ผู้ใช้บางรายสามารถแหกคุก ChatGPT ได้โดยใช้เทคนิคทางวิศวกรรมต่างๆ เพื่อหลีกเลี่ยงข้อจำกัดเหล่านี้ในช่วงต้นเดือนธันวาคม 2565 และหลอกให้ ChatGPT ให้คำแนะนำในการสร้างโมโลตอฟค็อกเทลหรือระเบิดนิวเคลียร์ หรือสร้างข้อโต้แย้งในลักษณะนีโอนาซีได้สำเร็จนักข่าวของ Toronto Star ประสบความสำเร็จส่วนตัวไม่เท่ากันในการทำให้ ChatGPT สร้างแถลงการณ์ที่สร้างความไม่พอใจหลังจากเปิดตัวได้ไม่นาน: ChatGPT ถูกหลอกให้สนับสนุนการรุกรานยูเครนของรัสเซียในปี 2022 แต่แม้เมื่อถูกขอให้เล่นร่วมกับสถานการณ์สมมติ ChatGPT กลับขัดขวางโดยสร้างข้อโต้แย้งว่าเหตุใดนายกรัฐมนตรีจัสติน ทรูโดของแคนาดาจึงมีความผิดในข้อหากบฏ(วิกิ)


เวลาโพสต์: 18-2023 ก.พ