ChatGPT bịa đặt thông tin, OpenAI đối mặt với khiếu nại quyền riêng tư

OpenAI có thể đối mặt với khoản phạt lên đến 4% doanh thu toàn cầu hàng năm

OpenAI đang gặp phải một khiếu nại về quyền riêng tư tại Châu Âu do chatbot AI ChatGPT bịa đặt thông tin. Sự việc này đang làm dấy lên lo ngại về mức độ chính xác của AI và tác động của nó đối với cá nhân bị ảnh hưởng.

Cáo buộc bịa đặt thông tin

Tổ chức Bảo vệ quyền riêng tư Noyb đang hỗ trợ một công dân Nauy khởi kiện OpenAI sau khi ChatGPT bịa đặt thông tin rằng người này bị kết án vì tội giết hai con và cố gắng giết người con thứ ba. Điều đáng nói là người đàn ông này hoàn toàn không có con, khiến thông tin sai lệch trở nên nghiêm trọng.

Trước đó, các khiếu nại về ChatGPT chủ yếu liên quan đến việc cung cấp thông tin cá nhân không chính xác, như ngày sinh sai hoặc thông tin tiểu sử không đúng. Tuy nhiên, vụ việc lần này có mức độ nghiêm trọng cao hơn khi ChatGPT tạo ra một câu chuyện hoàn toàn bịa đặt về một cá nhân, gây ảnh hưởng nặng nề đến danh dự và cuộc sống của người này.

ChatGPT bịa đặt thông tin
ChatGPT bịa đặt thông tin

Vi phạm quy định GDPR?

Theo Quy định Bảo vệ Dữ liệu chung (GDPR) của Liên minh châu Âu, người dân có quyền truy cập và chỉnh sửa dữ liệu cá nhân của mình. Luật cũng yêu cầu các tổ chức kiểm soát dữ liệu phải đảm bảo dữ liệu cá nhân được tạo ra là chính xác.

Noyb lập luận rằng OpenAI đã vi phạm các quy định này bằng cách:

  • Không cung cấp cơ chế để cá nhân chỉnh sửa thông tin sai mà ChatGPT tạo ra.
  • Không đảm bảo độ chính xác của dữ liệu cá nhân.
  • Chỉ hiển thị tuyên bố từ chối trách nhiệm nhỏ rằng chatbot có thể mắc lỗi, điều này không đủ để tuân thủ GDPR.

Hệ lụy đối với OpenAI

Nếu bị xác nhận vi phạm GDPR, OpenAI có thể đối mặt với khoản phạt lên đến 4% doanh thu toàn cầu hàng năm. Ngoài ra, công ty có thể bị buộc phải thay đổi cách thức vận hành ChatGPT để đảm bảo tuân thủ quy định bảo vệ dữ liệu.

Trước đó, vào năm 2023, Ý đã tạm thời chặn ChatGPT do lo ngại về quyền riêng tư, buộc OpenAI phải điều chỉnh cách hoạt động của chatbot tại quốc gia này. Sau đó, OpenAI bị phạt 15 triệu euro vì xử lý dữ liệu cá nhân mà không có cơ sở pháp lý phù hợp.

OpenAI có thể đối mặt với khoản phạt lên đến 4% doanh thu toàn cầu hàng năm
OpenAI có thể đối mặt với khoản phạt lên đến 4% doanh thu toàn cầu hàng năm

Những lo ngại về AI và thông tin sai lệch

Khiếu nại mới nhất của Noyb nhằm nhấn mạnh nguy cơ của AI trong việc tạo ra thông tin sai lệch, đặc biệt là khi nó có thể gây tổn hại nghiêm trọng đến danh dự và cuộc sống của con người.

Vụ việc này có thể trở thành một tiền lệ quan trọng trong cách các cơ quan giám sát châu Âu xử lý vấn đề trách nhiệm của AI đối với thông tin mà nó tạo ra. Nếu OpenAI không có biện pháp khắc phục phù hợp, họ có thể gặp nhiều rủi ro pháp lý hơn trong tương lai.

Vụ kiện chống lại OpenAI tại Na Uy là một dấu hiệu cho thấy các cơ quan quản lý ngày càng siết chặt việc kiểm soát các công cụ AI như ChatGPT. Điều này đặt ra câu hỏi lớn về trách nhiệm của AI trong việc đảm bảo tính chính xác của thông tin và quyền của cá nhân trong việc kiểm soát dữ liệu liên quan đến họ.

Những lo ngại về AI và thông tin sai lệch
Những lo ngại về AI và thông tin sai lệch

Sự kiện này có thể là bước ngoặt quan trọng trong cách thế giới quản lý AI, đặc biệt khi công nghệ này ngày càng phát triển và có ảnh hưởng sâu rộng đến đời sống con người. Hãy theo dõi FoxAI để biết thêm thông tin nhé!

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *