5 ข้อมูลอันตรายที่ไม่ควรคุยกับ AI เด็ดขาด ควรระวังก่อนข้อมูลหลุด

5 ข้อมูลอันตรายที่ไม่ควรคุยกับ AI เด็ดขาด ควรระวังก่อนข้อมูลหลุด

หมวดหมู่: บทความทั่วไปTip & Technicข่าวไอที

ผู้เชี่ยวชาญเผย 5 ข้อมูลอันตรายที่ไม่ควรคุยกับ AI เด็ดขาด ควรระวังก่อนข้อมูลหลุด


5 เรื่องที่ไม่ควร “บอกความลับ” กับ AI ผู้เชี่ยวชาญเตือน เสี่ยงข้อมูลส่วนตัวรั่วไหล
การใช้แชท AI อย่าง ChatGPT หรือ Gemini กำลังได้รับความนิยมมากขึ้น ทั้งในการเรียน งาน และชีวิตประจำวัน แต่ผู้เชี่ยวชาญเตือนว่า ผู้ใช้จำนวนมากมีแนวโน้ม “เปิดเผยข้อมูลมากเกินไป” โดยไม่รู้ว่าการส่งข้อมูลบางอย่างอาจเสี่ยงต่อความเป็นส่วนตัวอย่างรุนแรง


โดยการที่เราเอาข้อมูลส่วนตัวของเราไปคุยกับตัว AI อาจจะไม่ใช่เรื่องที่ควรเท่าไหร่ โดยเจนนิเฟอร์ คิง นักวิจัยจาก Stanford AI Institute ระบุว่า ผู้คนมัก “เปิดเผยตัวเองอย่างน่าประหลาดใจ” เมื่อคุยกับแชท AI และชี้ว่าผู้ใช้อาจ “สูญเสียสิทธิ์ความเป็นเจ้าของข้อมูล” ที่ส่งเข้าไป โดยที่ผ่านมาเคยเกิดเหตุข้อมูลหลุด เช่น การแสดงประวัติแชทผิดพลาดในเดือนมีนาคม 2023 และอีเมลยืนยันที่เผยชื่อ อีเมล และข้อมูลชำระเงินของผู้ใช้บางราย


ผู้เชี่ยวชาญแนะนำ 5 ข้อมูลที่ไม่ควรคุยกับ AI

1. ข้อมูลระบุตัวตนส่วนบุคคล
เช่น เลขบัตรประชาชน เลขหนังสือเดินทาง เลขใบขับขี่ วันเกิด ที่อยู่ เบอร์โทรศัพท์ ข้อมูลเหล่านี้สามารถถูกนำไปสวมรอยหรือใช้ฉ้อโกงได้


2. ข้อมูลด้านสุขภาพ
ผลตรวจโรค การวินิจฉัย การรักษา หรือประวัติทางการแพทย์ต่างๆ ถือเป็นข้อมูลที่มีความอ่อนไหวสูง และอาจสร้างผลเสียรุนแรงหากถูกนำไปใช้ผิดวัตถุประสงค์


3. ข้อมูลทางการเงิน
เช่น เลขบัญชีธนาคาร ข้อมูลบัตรเครดิต หรือข้อมูลการชำระเงิน เพราะสามารถนำไปใช้โจรกรรมหรือทำธุรกรรมปลอมแปลงได้


4. เอกสารภายในองค์กร
โค้ดลับ รายงานสำคัญ แผนธุรกิจ หรือข้อมูลที่เป็นความลับทางการค้า โดยเคยมีกรณี Samsung ต้องสั่งห้ามพนักงานใช้ ChatGPT หลังเกิดเหตุข้อมูลซอร์สโค้ดหลุดเข้าสู่ระบบ


5. ข้อมูลล็อกอิน
รหัสผ่าน PIN หรือคำถามเพื่อยืนยันตัวตน ซึ่งเป็นข้อมูลที่ไม่ควรส่งให้ระบบใดๆ นอกเหนือจากช่องทางที่บริษัทกำหนดอย่างเป็นทางการ

 

แล้วแพลตฟอร์มต่างๆ จัดการข้อมูลอย่างไร?
บางบริการ เช่น Claude ของ Anthropic ระบุว่าไม่ใช้ข้อมูลแชทไปฝึกโมเดล และลบข้อมูลภายใน 2 ปี แต่บริการยอดนิยมอย่าง ChatGPT, Google Gemini และ Microsoft Copilot ยังใช้ข้อมูลในการพัฒนาโมเดล แม้จะมีฟีเจอร์ “ปิดการเก็บข้อมูล” ให้ผู้ใช้เลือกได้ก็ตาม

 

คำแนะนำเพื่อความปลอดภัยของข้อมูลส่วนตัว

  • ลบประวัติแชทหลังการใช้งานแต่ละครั้ง
  • ใช้โหมดชั่วคราว/โหมดไม่บันทึกข้อมูล
  • อย่าส่งข้อมูลที่บ่งบอกตัวตนหรือข้อมูลลับทางธุรกิจเด็ดขาด
  • ตั้งค่าความเป็นส่วนตัวในแพลตฟอร์มให้รัดกุมที่สุด

 

แม้แชท AI จะช่วยให้การทำงานง่ายขึ้น แต่การปกป้องความเป็นส่วนตัวคือสิ่งที่ผู้ใช้ต้องใส่ใจเป็นอันดับแรก เพื่อหลีกเลี่ยงความเสี่ยงที่อาจเกิดขึ้นในอนาคต


แหล่งอ้างอิง:Soha

 

 

สนับสนุนเนื้อหา: 

ไอทีจีเนียส เอ็นจิเนียริ่ง (IT Genius Engineering) ให้บริการด้านไอทีครบวงจร ทั้งงานด้านการอบรม (Training) สัมมนา รับงานเขียนโปรแกรม เว็บไซต์ แอพพลิเคชั่น งานออกแบบกราฟิก และงานด้าน E-Marketing ที่กำลังได้รับความนิยมในปัจจุบัน ทั้ง SEO , PPC , และ Social media marketting

ติดต่อเราเพื่อสอบถามผลิตภัณฑ์ ขอราคา หรือปรึกษาเรื่องไอที ได้เลยค่ะ

Line : @itgenius (มี @ ด้านหน้า) หรือ https://lin.ee/xoFlBFe
Facebook : https://www.facebook.com/itgeniusonline
Tel : 02-570-8449 มือถือ 088-807-9770 และ 092-841-7931
Email : contact@itgenius.co.th

แนะนำหลักสูตรอบรมที่น่าสนใจ

user
โดย Nong-beam
เข้าชม 38 ครั้ง

คำค้นหา : aiการใช้ aiคุยกับ aiข้อมูลที่ไม่ควรคุยกับ aiข้อมูลระบุตัวตนข้อมูลด้านสุขภาพข้อมูลทางการเงินเอกสารภายในองค์กรข้อมูลล็อกอินการใช้แชท aichatgptgemini