CỔNG THÔNG TIN VÀ ĐẦU TƯ QUỐC TẾ

Loạt “ông lớn” FPT, Galaxy Holdings… chi mạnh làm trí tuệ nhân tạo, song 60% người Việt 'lo sợ' mất quyền riêng tư: Chuyên gia khuyến cáo gì?

Invest Global 09:37 31/07/2025

Việt Nam được biết muốn có 10 thương hiệu AI và 3 trung tâm dữ liệu quốc gia.

Sự phát triển của trí tuệ nhân tạo (AI) tại Việt Nam đã đạt được những bước tiến vượt bậc. Chiến lược Quốc gia về nghiên cứu, ứng dụng trí tuệ nhân tạo đến năm 2030 của chính phủ đã vạch ra mục tiêu đưa AI trở thành công nghệ cốt lõi và định vị Việt Nam nằm trong top 4 quốc gia ASEAN và top 50 toàn cầu về AI.

Việt Nam muốn có 10 thương hiệu AI và 3 trung tâm dữ liệu quốc gia

Chiến lược này đặt mục tiêu phát triển 10 thương hiệu AI, thành lập 3 trung tâm dữ liệu quốc gia và điện toán hiệu năng cao, tạo ra 50 bộ dữ liệu mở và hình thành 3 trung tâm đổi mới sáng tạo (cùng với ít nhất một cơ sở đào tạo AI nằm trong top 20 ASEAN).

Về phía doanh nghiệp, các công ty lớn như FPT đã cam kết đầu tư hơn 200 triệu USD để xây dựng một "nhà máy AI" sử dụng chip Nvidia. Nvidia cũng đã ký kết các thỏa thuận với chính phủ Việt Nam để thành lập các trung tâm Nghiên cứu và Phát triển AI, cũng như các trung tâm dữ liệu. Hay Ngân hàng Số Vikki cùng Galaxy Holding – “mắc xích” ít biết của tỷ phú Nguyễn Thị Phương Thảo – mới đây đã chi 100 tỷ đồng năm đầu tiên để đầu tư hệ thống phòng Lab cho Trung tâm nghiên cứu, đào tạo thiết kế vi mạch và trí tuệ nhân tạo Đà Nẵng (DASC)…

Nhìn chung, nhờ các chính sách của chính phủ và nguồn vốn tư nhân, lĩnh vực AI của Việt Nam dự kiến sẽ đạt 932 triệu USD vào năm 2025. Với tốc độ tăng trưởng kép hàng năm (CAGR) là 26,27% từ năm 2025 đến 2031, thị trường này dự kiến sẽ mở rộng đáng kể, đạt tổng giá trị 3,78 tỷ USD vào năm 2031.

Doanh nghiệp không chỉ sử dụng AI để chăm sóc khách hàng, mà còn ứng dụng vào vận hành, quản lý hàng hoá, nhân sự… Đơn cử, trong thời đại thị trường biến động không ngừng, bài toán lao động trở nên cấp thiết hơn bao giờ hết (báo cáo từ AI Talent H&HIS). Được biết, AI Talent H&HIS được phát triển bởi H&H International Strategy (H&HIS) - đơn vị cung cấp một nền tảng phỏng vấn và đánh giá ứng viên ứng dụng trí tuệ nhân tạo (AI) nhằm giảm bất bình đẳng trong tiếp cận cơ hội việc làm.

Hữu dụng là vậy, song sự phát triển mạnh mẽ của AI cũng đưa đến nhiều rủi ro không dễ nhận diện, đặc biệt với công nghệ phổ biến nhất hiện nay là Chatbot AI.

60% người dùng Việt Nam lo lắng về quyền riêng tư dữ liệu cá nhân

Loạt “ông lớn” FPT, Galaxy Holdings… chi mạnh làm trí tuệ nhân tạo, song 60% người Việt 'lo sợ' mất quyền riêng tư: Chuyên gia khuyến cáo gì?- Ảnh 1.

Ảnh: ông Phạm Huân - Giám đốc kỹ thuật khu vực, ManageEngine Việt Nam.

Dưới góc độ chuyên gia, ông Phạm Huân - Giám đốc kỹ thuật khu vực, ManageEngine Việt Nam – lý giải rằng Chatbot được phát triển bằng cách sử dụng các bộ dữ liệu công khai, điều này có thể khiến chúng dễ bị thao túng hoặc phát tán thông tin sai lệch.

Một vấn đề lớn khác là hiện tượng "AI bịa" (AI hallucination), khi Chatbot tự tin đưa ra các câu trả lời nhưng lại không chính xác hoặc có khả năng gây hại. Điều này có thể tiềm ẩn nguy cơ phát sinh các trách nhiệm pháp lý, đặc biệt khi khách hàng phụ thuộc vào các câu trả lời của Chatbot cho những thông tin quan trọng hoặc khẩn cấp.

Cùng với đó, ông Huân cũng nhấn mạnh rằng dữ liệu nhạy cảm của người dùng có thể bị lộ hoặc bị truy cập trái phép. Sự hiểu biết của Việt Nam về bảo vệ dữ liệu vẫn đang trong quá trình phát triển, và có những rủi ro mà doanh nghiệp có thể vô tình vi phạm các quy định về quyền riêng tư mới được ban hành. Điều này không chỉ đặt các tổ chức vào rủi ro pháp lý mà còn làm xói mòn lòng tin của khách hàng.

Việc quá phụ thuộc vào Chatbot cũng có thể dẫn đến những "điểm mù" trong an ninh mạng và giám sát tuân thủ. Các cuộc khảo sát gần đây cho thấy khoảng 60% người dùng Việt Nam lo lắng về quyền riêng tư dữ liệu cá nhân trực tuyến, làm nổi bật những lo ngại ngày càng tăng. Nếu không có sự kiểm tra và cân bằng của con người, các mối đe dọa nghiêm trọng hoặc lỗ hổng quy định có thể bị bỏ qua.

4 khuyến cáo cho doanh nghiệp và người dùng Việt

Để bảo vệ bản thân khỏi rủi ro của Chatbot AI, chuyên gia đưa ra 4 khuyến cáo, bao gồm:

(i) Cẩn thận với các xu hướng mạng xã hội: Nhiều nền tảng mạng xã hội chạy các trào lưu Chatbot "phân tích tính cách". Dù ban đầu có vẻ vô hại, thực tế đằng sau lại đáng lo ngại khi mọi thông tin cá nhân đăng tải trực tuyến như tên, ngày sinh, sở thích cho đến nơi làm việc, đều có thể bị lợi dụng.

(ii) Cần mã hóa dữ liệu và tuân thủ luật bảo mật thông tin: Các dịch vụ chatbot AI uy tín luôn tuân thủ nghiêm ngặt những quy định bảo vệ dữ liệu được công nhận như GDPR (Quy định chung về bảo vệ dữ liệu của Liên minh Châu Âu) hay CCPA (Đạo luật quyền riêng tư của người tiêu dùng California), để đảm bảo thông tin người dùng không bị truy cập trái phép.

Các Chatbot này cũng tích hợp công nghệ mã hóa dữ liệu. Đây là quá trình biến thông tin người dùng thành những đoạn mã khó hiểu bằng các thuật toán phức tạp, giúp bảo vệ dữ liệu an toàn. Dù việc kiểm tra này có vẻ rắc rối, nhưng tuyệt đối không thể bỏ qua.

(iii) Rà lại lịch sử trò chuyện: Người dùng hoàn toàn có thể lấy lại quyền kiểm soát dữ liệu của mình bằng cách tắt tính năng lưu lịch sử trò chuyện trong phần cài đặt của Chatbot.

(iv) Duyệt web ẩn danh và hạn chế đăng nhập: Nếu chỉ cần sử dụng Chatbot AI cho những câu hỏi nhanh, mang tính chất một lần thì không nên đăng nhập. Bởi, việc tạo tài khoản hay đăng nhập sẽ liên kết lịch sử trò chuyện với hồ sơ cá nhân, khiến việc theo dõi hoạt động người dùng trở nên dễ dàng hơn. Do đó, để bảo vệ quyền riêng tư tốt hơn hãy tránh đăng nhập hoàn toàn. Thay vào đó, nên chọn chế độ ẩn danh (incognito), khách (guest) hoặc riêng tư (privacy mode)…

“Vi phạm dữ liệu là một vấn đề nghiêm trọng. Nó không chỉ liên quan đến việc bảo vệ thông tin cá nhân của bạn, mà khi thông tin của bạn đã được công khai, việc xoá bỏ hoàn toàn là gần như không thể”, ông Huân nói thêm.

Ý kiến chuyên gia