Cách các ông lớn công nghệ khai thác sự mệt mỏi khi phải lựa chọn từ chối huấn luyện AI

Cứ vài tuần, lại có thêm một công ty công nghệ lén lút thêm một điều khoản mới vào chính sách bảo mật của mình. Thông điệp luôn giống nhau: “Chúng tôi đang sử dụng dữ liệu của bạn để huấn luyện AI, trừ khi bạn ngăn chặn điều này”. Đó không phải là sự đồng ý, mà là sự mệt mỏi được ngụy trang dưới danh nghĩa lựa chọn.

Sự thay đổi âm thầm này được nhiều người gọi là sự mệt mỏi khi lựa chọn không tham gia, một trạng thái đã trở thành trọng tâm của thời đại kỹ thuật số. Sử dụng Internet đơn giản không còn là đủ. Bạn cũng phải bảo vệ quyền của mình khi không muốn dữ liệu cá nhân bị đưa vào các máy móc vận hành nó.

Trong thực tế mới này, ý tưởng về việc lựa chọn không tham gia bảo mật dữ liệu AI đã trở thành một phép thử về mức độ kiểm soát mà chúng ta vẫn còn đối với cuộc sống kỹ thuật số của mình.

Cách các lựa chọn mặc định trở thành tiêu chuẩn ngành

Sự trỗi dậy của Generative AI đã thúc đẩy các công ty tích trữ một lượng lớn dữ liệu người dùng để huấn luyện. Những gì bắt đầu như các thử nghiệm lựa chọn tham gia đã trở thành một thông lệ mặc định phổ biến. Chúng đã bình thường hóa một thế giới nơi việc chọn “có” đối với dữ liệu người dùng là tự động và việc chọn “không” đòi hỏi các biện pháp khắc phục.

Tùy chọn mặc định cho quyền riêng tư của AI
Tùy chọn mặc định cho quyền riêng tư của AI

Ví dụ, việc thu thập dữ liệu AI của LinkedIn tự động bao gồm các bài đăng, bình luận và dữ liệu profile người dùng trong quá trình huấn luyện mô hình AI. Điều này cho phép Microsoft truy cập hàng tỷ điểm dữ liệu mặc dù công ty tuyên bố dữ liệu được ẩn danh. Mặc dù có thể chọn không tham gia sau khi điều hướng qua nhiều lớp menu, nhưng cài đặt mặc định giả định bạn đồng ý mà không cần hỏi.

Meta cũng làm điều tương tự. Mô hình Llama của họ được huấn luyện trên nội dung người dùng công khai từ Facebook và Instagram theo mặc định. Ngay cả các cuộc trò chuyện riêng tư cũng có thể ảnh hưởng đến quảng cáo được nhắm mục tiêu, mà không có nút bật/tắt đơn giản nào để dừng lại. Người dùng cuối cùng phải xóa toàn bộ cuộc trò chuyện hoặc tìm các giải pháp thay thế khác để ngăn Meta AI sử dụng dữ liệu trò chuyện của họ.

Dự án Gemini của Google cho phép AI học hỏi từ hoạt động trên YouTube, lịch sử tìm kiếm và thậm chí cả Gems của bạn, trừ khi bạn tìm hiểu qua các tùy chọn quyền riêng tư để tắt nó. Những hiểu biết về lý do tại sao Google cho phép bạn chia sẻ Gemini Gems cho thấy hệ thống được định hình như là sự hợp tác trong khi âm thầm mở rộng quyền truy cập dữ liệu.

Chatbot Claude của Anthropic đã gây chú ý với bản cập nhật chính sách lưu giữ dữ liệu trò chuyện lên đến 5 năm để huấn luyện mô hình trừ khi người dùng chọn không tham gia trước một thời hạn nhất định.

Điều này không phải là ngẫu nhiên. Dữ liệu là vô giá, và việc mặc định chọn tham gia giúp dữ liệu được lưu chuyển dễ dàng. Họ khai thác một sự thật đơn giản mà hầu hết người dùng sẽ không bao giờ nhận ra, và những người nhận ra thì hiếm khi có thời gian hoặc kiên nhẫn để thay đổi nó.

Hơn nữa, hệ thống này tồn tại vì luật bảo mật ở hầu hết các khu vực được viết cho cookie và quảng cáo, chứ không phải trí tuệ nhân tạo (AI). Những cơ quan quản lý luôn đi sau vài bước, cho phép các công ty có thời gian để chuẩn hóa những cài đặt mặc định từ chối tham gia trước khi các quy định bắt kịp.

Tại sao hệ thống từ chối tham gia lại gây thất vọng cho người dùng?

Ý tưởng về sự lựa chọn trong quyền riêng tư trực tuyến đã trở thành một ảo tưởng. Về mặt kỹ thuật, bạn có thể từ chối. Nhưng trên thực tế, rất ít người làm vậy. Sự mệt mỏi vì phải đưa ra quá nhiều sự đồng ý là vấn đề cốt lõi, và điều này xảy ra vì chúng ta bị dồn dập bởi quá nhiều quyết định; vì vậy, chúng ta sẽ ngừng đưa ra bất kỳ quyết định nào.

Các công ty AI dựa vào sự mệt mỏi đó của người dùng. Mỗi cửa sổ pop-up "chúng tôi đã cập nhật chính sách bảo mật" lại thêm một lớp nhầm lẫn nữa. Vì vậy, việc nhấp vào Accept không còn là một sự đồng ý nữa; nó đã trở thành một thói quen.

Nhấp vào Accept vì thói quen
Nhấp vào Accept vì thói quen

Một nghiên cứu của Pew năm 2023 cho thấy gần 80% người dùng Mỹ bỏ qua việc đọc chính sách bảo mật vì họ thấy chúng quá khó hiểu hoặc tốn thời gian. Các công ty nhận thức được điều này và thiết kế sản phẩm của họ cho phù hợp.

Mọi người chỉ đọc lướt qua những điều khoản mà đáng lẽ họ nên đọc kỹ. Những hệ thống này không cần đến sự lừa dối khi sự mệt mỏi cũng có hiệu quả tương tự. Chúng đặt toàn bộ gánh nặng về quyền riêng tư lên vai cá nhân, những người phải tìm kiếm qua nhiều lớp cài đặt để từ chối.

Đối với Claude, việc từ chối sẽ ngăn chặn việc sử dụng trong tương lai nhưng lại để lại dữ liệu trong quá khứ ở trạng thái lấp lửng trong nhiều năm. Tương tự, hệ thống của Google xóa lịch sử khi người dùng từ chối, buộc họ phải lựa chọn giữa quyền riêng tư và tiện ích. Và đây gần như là một tình huống điển hình trên diện rộng.

Động thái này phản ánh các thiết kế thao túng khác. Chúng ta đã thấy những mô hình tương tự trong công nghệ tiêu dùng, chẳng hạn như quyết định của Samsung về việc đẩy quảng cáo lên các thiết bị thông minh, nơi quyền kiểm soát của người dùng tồn tại trên lý thuyết nhưng không phải trong thực tế. Chiến lược này giống hệt nhau vì chúng ngụy trang sự cưỡng ép dưới vỏ bọc tiện lợi.

Kẻ chiến thắng thực sự đằng sau dữ liệu của bạn

Cuộc tranh luận về việc từ chối chia sẻ dữ liệu AI không chỉ đơn thuần là vấn đề quyền riêng tư. Nó còn liên quan đến lợi nhuận và quyền kiểm soát. Đằng sau bức màn, các công ty AI thu được lợi nhuận khổng lồ từ mô hình này.

Các công ty AI hưởng lợi từ dữ liệu của bạn
Các công ty AI hưởng lợi từ dữ liệu của bạn

Thị trường AI toàn cầu đạt 638 tỷ USD vào năm 2024 và dự kiến ​​sẽ đạt 1,8 nghìn tỷ USD vào năm 2030, theo Semrush và Statista, với dữ liệu người dùng là động lực chính để đào tạo các mô hình mà không cần phí cấp phép. Đối với các gã khổng lồ công nghệ như Microsoft, Meta, Anthropic và Google, dữ liệu người dùng là một mỏ vàng.

Việc tích hợp LinkedIn với Azure và OpenAI, tham vọng AI toàn cầu của Meta và mạng lưới Gemini của Google đều dựa trên việc thu thập dữ liệu liên tục, quy mô lớn. Người dùng càng tạo ra nhiều nội dung, hệ thống càng trở nên thông minh và sinh lời hơn.

Cách tiếp cận này đối với việc từ chối chia sẻ dữ liệu AI giúp duy trì nguồn cung cấp dữ liệu không bị gián đoạn. Người dùng tạo ra tài liệu đào tạo miễn phí, trong khi các công ty kiếm tiền từ đó để xây dựng những sản phẩm có thể tự động hóa, sao chép hoặc thay thế công việc của con người.

Ngoài ra, điều này tạo ra thế độc quyền cho các ông lớn AI vì những công ty AI nhỏ hơn không thể cạnh tranh nếu không có lượng dữ liệu khổng lồ tương tự.

Kẻ chiến thắng rất rõ ràng: Các công ty AI lớn tạo ra một vòng luẩn quẩn, trong đó AI tốt hơn thu hút nhiều người dùng hơn, tạo ra nhiều dữ liệu hơn. Trong khi đó, chúng ta chỉ nhận được những lợi ích tối thiểu như đề xuất thông minh hơn, nhưng phải trả giá bằng quyền riêng tư và quyền tự chủ. Trong nền kinh tế AI, mỗi người dùng vừa là sản phẩm vừa là lao động không được trả công.

Đấu tranh giành lại quyền đồng ý thực sự

Tuy nhiên, người dùng không phải là bất lực. Trên khắp châu Âu, những người ủng hộ quyền riêng tư đang đệ đơn khiếu nại GDPR để ngăn chặn việc đào tạo dữ liệu AI trái phép. Điều 21 của GDPR trao cho công dân quyền phản đối việc xử lý dữ liệu cá nhân, và hàng nghìn người đã bắt đầu viện dẫn điều khoản này.

Các luật về quyền riêng tư tương tự đang có hiệu lực đầy đủ ở những nơi như Ấn Độ với Đạo luật DPDP, PIPL của Trung Quốc và Đạo luật Bảo vệ Quyền riêng tư Người tiêu dùng của California. Tất cả đều nhằm mục đích hạn chế việc thu thập, xử lý dữ liệu và đào tạo AI của các công ty công nghệ, với mức phạt lên đến 4% doanh thu toàn cầu đối với những vi phạm.

Ở những khu vực khác, nơi luật bảo mật còn hạn chế, sự cảnh giác là điều cần thiết. Sử dụng các chiến lược tự vệ như công cụ bảo mật cấp trình duyệt và vô hiệu hóa những đề xuất của AI bất cứ khi nào chúng xuất hiện đều có hiệu quả. Tìm hiểu thêm về các cách ngăn chặn chatbot AI huấn luyện trên dữ liệu của bạn.

Ngay lập tức vô hiệu hóa các tính năng huấn luyện AI như tùy chọn từ chối của LinkedIn, điều chỉnh cài đặt AI của Meta, tùy chọn “cải thiện mô hình cho mọi người” của ChatGPT hoặc các điều khiển quyền riêng tư của Copilot. Xóa những cuộc trò chuyện cũ để hạn chế việc tiếp xúc và sử dụng chế độ tạm thời cho các truy vấn nhạy cảm.

Điểm mấu chốt là hành động tập thể có thể thay đổi các chuẩn mực. Nếu tất cả chúng ta cùng đóng vai trò của mình bằng cách từ chối và lên tiếng về mối lo ngại của mình, các công ty sẽ buộc phải giành được sự đồng ý thay vì giả định điều đó.

Thứ Năm, 12/02/2026 15:02
51 👨
Xác thực tài khoản!

Theo Nghị định 147/2024/ND-CP, bạn cần xác thực tài khoản trước khi sử dụng tính năng này. Chúng tôi sẽ gửi mã xác thực qua SMS hoặc Zalo tới số điện thoại mà bạn nhập dưới đây:

Số điện thoại chưa đúng định dạng!
Số điện thoại này đã được xác thực!
Bạn có thể dùng Sđt này đăng nhập tại đây!
Lỗi gửi SMS, liên hệ Admin
0 Bình luận
Sắp xếp theo