Khi sự thật bị lập trình lại
Ngày nay, chỉ cần vài phút ghi âm, AI có thể tái tạo giọng nói quen thuộc một cách hoàn hảo, hay những bức ảnh không có thật vẫn dễ dàng được hàng triệu người tin tưởng. Tin giả, lan truyền qua tài khoản tự động và thuật toán dựa trên cảm xúc, tác động mạnh đến nhận thức cộng đồng, như video deepfake Tổng thống Ukraine kêu gọi đầu hàng (3.2022) hay ảnh AI giả về “nổ lớn gần Lầu Năm Góc” (5.2023). Chỉ trong vài giờ, hai bài đăng trên Twitter đã thu hút hơn nửa triệu lượt xem, gây hoang mang và thậm chí ảnh hưởng ngắn đến thị trường chứng khoán, trước khi Lầu Năm Góc phải bác bỏ tin giả.

Giới khoa học vẫn đưa ra những lo ngại lớn về trí tuệ nhân tạo
Trong kỷ nguyên trí tuệ nhân tạo tạo sinh (Generative AI), ranh giới giữa thật và giả đang bị xóa nhòa với tốc độ chưa từng có. Những công cụ từng chỉ phục vụ sáng tạo giờ đây có thể bị biến thành vũ khí thao túng – không tiếng súng, không cần tranh luận, chỉ cần một cái nhấn “chia sẻ”.
Trong bối cảnh các thế lực thù địch, phản động tăng cường lợi dụng không gian mạng và những tiến bộ công nghệ như AI để tán phát thông tin sai lệch, xuyên tạc chủ nghĩa Mác-Lênin, tư tưởng Hồ Chí Minh, đường lối, chủ trương của Đảng, chính sách, pháp luật của Nhà nước, việc chủ động đấu tranh, phản bác các quan điểm sai trái, thù địch, nhất là trên internet, mạng xã hội theo tinh thần Nghị quyết số 35-NQ/TW của Bộ Chính trị trở thành yêu cầu mang tính sống còn, đòi hỏi sự nhận diện và đấu tranh hiệu quả với các phương thức, thủ đoạn mới.
Hiểm họa lan truyền: Khi tin giả có cánh, còn người thật tiếp tay
AI không chỉ tạo nội dung sai mà còn giúp chúng lan nhanh như virus, nhất là khi kết hợp tài khoản tự động, thuật toán gợi ý và hiệu ứng đám đông ảo. Bài viết gây sốc, đánh vào nỗi sợ hoặc định kiến dễ tạo dư luận giả, khuếch đại cảm xúc, khiến người thật vô tình tiếp tay phát tán. Nghiên cứu của MIT trên 126.000 tweet (trên Twitter, nay là X) cho thấy tin giả lan nhanh hơn 70% so với tin thật, được khuếch đại bởi video ngắn trên TikTok, YouTube, tận dụng cảm xúc và thuật toán để “viral”.
Thuật toán luôn ưu tiên nội dung chạm mạnh vào cảm xúc lập tức “thổi” clip ấy tới hàng triệu người, nhất là những ai từng xem chủ đề tương tự. Kết quả là tin sai bay nhanh như virus, lan rộng trước khi người xem kịp kiểm chứng, khiến việc phân biệt thật – giả càng khó khăn hơn bao giờ hết.
Trong kỷ nguyên AI, tin giả là chuỗi hành vi được thiết kế với mục tiêu và chiến thuật lan truyền, không còn là sự cố rời rạc. Để ngăn chặn, cần theo dõi cả nội dung, hành trình lan tỏa và những “bàn tay vô hình” thúc đẩy nó.
Cách AI thao túng cảm xúc và xoáy sâu vào những điểm yếu tư tưởng
Nội dung phản tuyên truyền do AI tạo ra không ngẫu nhiên, mà được nhắm vào những “vùng dễ tổn thương” của xã hội: tư tưởng, lịch sử, chính trị, văn hóa. Chỉ cần một cú chạm đúng điểm, chúng có thể thổi bùng tranh cãi và chia rẽ.
Một trong những thủ đoạn phổ biến là xuyên tạc lịch sử – viết lại quá khứ để gieo hoài nghi, phủ nhận thành tựu và bóp méo các sự kiện đã được xác lập. Thực tế, một số đối tượng lợi dụng AI sản xuất nội dung dưới chiêu bài “giải mã lịch sử”, “sự thật bị che dấu” để xuyên tạc các sự kiện trọng đại, phủ nhận vai trò Chủ tịch Hồ Chí Minh và Đảng. Những nội dung này xuất hiện trên mạng xã hội, gây hoang mang và tác động tiêu cực đến nhận thức của thế hệ trẻ.

Cần có những giải pháp công nghệ cụ thể để hỗ trợ người dân nhận diện tin giả
Hội nghị T.Ư 4 khóa XIII đã chỉ rõ: “Tăng cường định hướng thông tin, xử lý nghiêm các tổ chức, cá nhân lợi dụng internet, mạng xã hội để xuyên tạc sự thật, kích động, gây rối, chia rẽ đoàn kết nội bộ” trong đó có việc lợi dụng công nghệ để xuyên tạc lịch sử, công kích lãnh đạo, gieo rắc nghi ngờ vào thể chế. Đã có nhiều nội dung vu khống cán bộ lãnh đạo được “dựng”, trộn lẫn dữ liệu rò rỉ và viết bài thông qua AI, tạo ra chiến dịch tấn công tinh vi nhằm làm suy giảm niềm tin của nhân dân vào Đảng, Nhà nước và chế độ.
Về cảm xúc, các bài viết kiểu này thường mang sắc thái tiêu cực: châm biếm, mỉa mai, công kích, phẫn nộ cực đoan và được thiết kế để khiến người đọc phản ứng ngay, trước khi kịp suy xét bằng lý trí.
Bảng 1: Ước lượng tần suất và hình thức nội dung nghi ngờ phản tuyên truyền do AI trên mạng xã hội (Mẫu N=5000, 2023 – 2025)
|
Nền tảng |
Loại Nội dung |
Chỉ dấu AI nghi ngờ |
Tần suất (%) |
Chủ đề An ninh Tư tưởng chính |
|
|
Văn bản |
Lặp lại câu chuyện, ngôn ngữ phân cực, dấu hiệu LLM |
18 – 22% |
Xuyên tạc lịch sử, phủ nhận thành tựu, kích động chia rẽ |
|
|
Hình ảnh/Video |
Dấu hiệu Deepfake/Chỉnh sửa, ngữ cảnh sai lệch |
10 -15% |
Bôi nhọ lãnh đạo, tạo dựng sự kiện giả |
|
YouTube |
Video |
Dấu hiệu Deepfake (hình ảnh/âm thanh), cắt ghép sai lệch |
12 – 18% |
Xuyên tạc chính sách, Phỏng vấn/Phát biểu giả mạo |
|
YouTube |
Bình luận (Văn bản) |
Hoạt động giống bot, lặp lại thông điệp |
20 – 25% |
Tấn công cá nhân, Gây nhiễu thảo luận |
|
TikTok |
Video ngắn |
Dấu hiệu Deepfake đơn giản, Âm thanh/Hình ảnh gây sốc |
15 – 20% |
Lan truyền tin đồn thất thiệt, kích động cảm xúc tiêu cực |
|
X (Twitter) |
Văn bản (Tweet/Reply) |
Hoạt động giống Bot, lan truyền link độc hại/giả mạo |
25 – 30% |
Phối hợp tấn công, tung tin giả nhanh |
Bảng số liệu cho thấy, trên các mạng xã hội phổ biến như Facebook hay X (Twitter), tin nhắn văn bản và bình luận có dấu hiệu do AI tạo ra nhằm xuyên tạc lịch sử hoặc công kích cá nhân xuất hiện với tần suất đáng kể, đến 20 – 30% trong các mẫu khảo sát.
Phân tích dữ liệu cho thấy: những nội dung càng tiêu cực, càng nhạy cảm – thì càng có dấu hiệu can thiệp của AI. Cách lặp lại mô-típ câu chuyện, văn phong “trôi chảy bất thường”, đến sự khuếch đại có tổ chức bởi mạng lưới tài khoản tự động đều cho thấy sự dàn dựng bài bản. Và nếu không cảnh giác, mỗi lượt chia sẻ vô tình có thể góp phần khuếch đại một chiến dịch phản tuyên truyền đã được lập trình sẵn.
Chiến lược thao túng tư tưởng thời AI: Từ giả mạo đến định hình niềm tin
Trong kỷ nguyên số, AI đang trở thành công cụ ngày càng tinh vi cho chiến dịch thao túng thông tin, chuyển từ tạo nội dung sai lệch đơn thuần sang thiết kế chiến lược định hình niềm tin hệ thống. Ba công nghệ nổi bật đang được sử dụng là: deepfake (công nghệ tạo hình ảnh, video, âm thanh giả mạo chân thực), bot AI (tài khoản tự động lan truyền thông tin), và narrative engineering (kỹ thuật dẫn dắt câu chuyện có chủ đích).
Có bao giờ bạn thấy một đoạn video hay nghe một giọng nói giống hệt người nổi tiếng, nhưng hóa ra… họ chưa từng nói hay làm điều đó? Vào năm 2018, chỉ chuyên gia mới làm được video deepfake, nhưng giờ đây có hàng chục phần mềm deepfake miễn phí. Ví dụ, ứng dụng FakeApp hay DeepFaceLab cho phép người dùng bình thường tạo video gán mặt người khác.
Cùng lúc đó, các bot AI có thể chia sẻ những nội dung sai lệch với tốc độ cực nhanh, khiến nhiều người tưởng rằng rất đông người đang đồng tình – dù thật ra chỉ là một “đám đông ảo”. Vào năm 2020, Facebook đã công bố việc gỡ bỏ nhiều mạng lưới tài khoản giả mạo được tổ chức theo hình thức “coordinated inauthentic behavior”, nhằm can thiệp vào dư luận nội địa của nhiều quốc gia.
Các mạng lưới này thường do các tổ chức hoặc cá nhân nước ngoài điều hành, sử dụng tài khoản giả để giả danh người dân địa phương, chia sẻ nội dung chính trị, và thao túng thảo luận công cộng trên nền tảng.
Nguy hiểm hơn nữa là kỹ thuật narrative engineering, nó sắp xếp thông tin thành câu chuyện trọn vẹn, nhắm đúng thời điểm, đối tượng, điểm yếu, khiến người đọc dễ tin và bị ảnh hưởng vô thức.
Ngoài ra, còn thủ đoạn đánh lừa chính hệ thống AI, khi kẻ xấu ra lệnh đặc biệt cho AI để buộc nó tạo nội dung độc hại. Nói nôm na, chúng “đầu độc” AI để nó làm điều xấu. Vì thế, không chỉ cần kiểm tra kết quả AI tạo ra, mà còn phải giám sát quá trình nó suy nghĩ, đảm bảo AI luôn “chạy đúng đường”.
Bảng 2: Các kỹ thuật thao túng bằng AI cho mục đích phản tuyên truyền/thông tin sai lệch
|
Kỹ thuật |
Mô tả |
Công cụ AI chính |
Tác động tiềm ẩn đến an ninh tư tưởng |
|
Deepfake |
Tạo/chỉnh sửa nội dung đa phương tiện (hình ảnh, video, âm thanh) siêu thực để mạo danh, xuyên tạc sự thật. |
GANs, Mô hình khuếch tán, Autoencoders, Computer Vision. |
Mạo danh lãnh đạo, tạo bằng chứng giả, lan truyền tin đồn thất thiệt, làm xói mòn lòng tin vào thông tin chính thống. |
|
Bot-farm/AI Bots |
Tạo và vận hành hàng loạt tài khoản mạng xã hội tự động để khuếch đại thông điệp, tạo dư luận ảo, tấn công đối thủ. |
Xử lý ngôn ngữ tự nhiên (NLP), Học máy (ML), Phân tích mạng xã hội (SNA). |
Lan truyền nhanh chóng các luận điệu sai trái, bóp nghẹt tiếng nói bất đồng, tạo cảm giác đa số ủng hộ/phản đối giả tạo, gây nhiễu loạn không gian mạng. |
|
Kỹ thuật dẫn dắt câu chuyện /Tuyên truyền bằng máy tính |
Thiết kế, cá nhân hóa và phổ biến các câu chuyện có chủ đích để định hình nhận thức, thái độ, hành vi; bao |
Mô hình ngôn ngữ lớn (LLMs), NLP, ML, Phân tích dữ liệu lớn, Kỹ thuật prompt gồm cả việc thao túng AI để vượt rào cản an toàn. |
Gieo rắc tư tưởng độc hại một cách tinh vi, khai thác điểm yếu tâm lý, cá nhân hóa thông điệp phản tuyên truyền, tạo ra nội dung độc hại mà AI thường từ chối |
AI – Mối đe dọa thật sự hay chỉ là lo xa?
AI đang làm mờ ranh giới thật – giả, khiến nhiều người lo ngại: liệu đây là hiểm họa thực sự hay chỉ là phản ứng thái quá với công nghệ mới? Một số chuyên gia, như Allan (2023), cho rằng deepfake và bot chưa tác động đáng kể, nhưng đa số cảnh báo cần kiểm soát sớm để tránh rủi ro vượt tầm kiểm soát. Vấn đề không chỉ nằm ở việc AI tạo ra nội dung giả, mà là khả năng phát hiện – truy vết ngày càng khó. Một hình ảnh, video hoặc đoạn văn do AI tạo ra có thể trôi nổi trên mạng mà không ai biết nguồn gốc – ai tạo, ai chia sẻ, ai chịu trách nhiệm.
Dù vậy, chính AI cũng là một phần giải pháp: các công cụ như XAI, hệ thống nhận diện deepfake, phát hiện bot… đang hỗ trợ các cơ quan quản lý và truyền thông chống lại sự thao túng. Nhưng quan trọng nhất vẫn là con người: công nghệ chỉ là công cụ – vấn đề nằm ở cách chúng ta kiểm soát, sử dụng và định hướng nó.

Sora của OpenAI là một trong những ví dụ điển hình cho công nghệ Deepfake đã lên tầm cao mới
Bảo vệ nền tảng tư tưởng của Đảng hôm nay không chỉ là đấu tranh với luận điệu sai trái rõ ràng, mà còn là vô hiệu hóa những cơ chế dẫn dắt cảm xúc, niềm tin qua công nghệ ngụy trang.
Vì sao chúng ta dễ bị dẫn dắt? Khi điểm yếu của con người trở thành mục tiêu của máy
AI nguy hiểm không vì “quá siêu” về công nghệ, mà vì đọc vị cảm xúc con người. Nhờ kho dữ liệu khổng lồ, thuật toán biết bạn sợ điều gì, bức xúc vì chuyện gì và thiên lệch ra sao. Thay vì tranh luận bằng lý trí, nó bấm thẳng vào nút cảm xúc – khơi sợ hãi, châm phẫn nộ, khơi thương cảm – khiến ta chia sẻ vội vàng mà quên kiểm chứng. Nghiên cứu năm 2018 trên Twitter cho thấy tin tức chính trị sai lệch lan nhanh và xa hơn tin thật rất nhiều, vì người ta bị hấp dẫn bởi yếu tố bất ngờ. Một nghiên cứu khác (Barakat & Dabbous, 2020) chỉ ra những người tư duy phản biện kém và quá lệ thuộc cảm xúc vào tin tức sẽ dễ thành nạn nhân của tin giả do AI tạo. Nghĩa là yếu tố con người quyết định rất lớn: nếu cả tin, thiếu suy xét thì dù AI không quá siêu, ta vẫn bị lừa; ngược lại nếu cảnh giác, suy nghĩ phản biện, thì AI dù tinh vi cũng khó qua mặt.
Mạng xã hội cũng là một yếu tố tiếp, tay luôn ưu tiên bài viết gây sốc, dần nhốt bạn trong “buồng vang” hay “bong bóng lọc”, nơi chỉ còn quan điểm giống mình. Càng xem, bạn càng tin mình đúng, khả năng phản biện suy giảm và trở thành “mồi ngon” cho chiến dịch thao túng tinh vi. Đây chính là kiểu xâm nhập tư tưởng lén lút mà Đảng ta đã cảnh báo: không cần súng đạn, nhưng âm thầm bào mòn niềm tin, dễ dẫn tới “tự diễn biến, tự chuyển hóa” nếu chúng ta thiếu tỉnh táo.
Do đó, Kết luận số 21-KL/TW ngày 25.10.2021 của Ban Chấp hành T.Ư Đảng khi nhấn mạnh “Phải ngăn chặn, đẩy lùi sự suy thoái tư tưởng chính trị, đạo đức, lối sống, biểu hiện “tự diễn biến”, “tự chuyển hóa” trong nội bộ”, trong đó có các hình thức xâm nhập, tác động thông qua không gian mạng và công nghệ hiện đại đã chỉ rõ một trong những nguy cơ lớn nhất trong giai đoạn hiện nay, mà AI đang làm trầm trọng thêm bằng cách khai thác trực diện vào những điểm yếu của con người và cơ chế lan tỏa của các nền tảng số.
Trong thế giới do AI điều phối, sự thiếu tỉnh táo và khả năng miễn dịch số yếu là “mảnh đất màu mỡ” cho phản tuyên truyền phát triển, không cần ép buộc, chỉ cần gieo nghi ngờ đúng lúc, đúng nơi, đúng người. Mạng xã hội sẽ chỉ là buồng vang nếu chúng ta để mặc thuật toán dẫn dắt. Ngược lại, nếu chủ động tìm kiếm thông tin đa chiều và kiểm chứng, mỗi người có thể tự phá vỡ “bong bóng thông tin” của chính mình.
Nguy cơ hội tụ: AI + Big Data + mạng xã hội
AI vốn đã mạnh. Nhưng khi kết hợp với dữ liệu lớn và mạng xã hội, nó không chỉ tạo nội dung – mà còn nhắm trúng người yếu thế và lan truyền với tốc độ của virus. Đây không phải là ba công nghệ tách biệt, mà là một hệ sinh thái thao túng vận hành nhịp nhàng.
AI tạo ra thông điệp. Big Data chỉ cho nó biết nên nhắm vào ai, điểm yếu nào. Mạng xã hội thì đẩy thông điệp ấy lên dòng thời gian người dùng, tối ưu theo tương tác chứ không phải sự thật. Bot AI vào cuộc, chia sẻ – bình luận – khuếch đại, khiến người dùng không còn là người đọc, mà trở thành mục tiêu lập trình hành vi.
Mọi lượt like, share, comment đều bị “học ngược” để tinh chỉnh thông điệp lần sau. Và điều nguy hiểm nhất: mọi thứ diễn ra rất tự nhiên khiến người ta không hề biết mình đang bị dẫn dắt. Khi thông tin nửa thật nửa giả trở nên phổ biến, niềm tin chung bị bào mòn từng ngày. Sự hoài nghi thế chỗ cho sự thật và không gian tư tưởng dần mong manh đến mức dễ tổn thương nhất.
Nhận diện “sự dối trá” do AI: Không dễ, nhưng hoàn toàn có thể
Khi AI có thể viết như người thật, vẽ ảnh như thật, thậm chí tạo ra “bằng chứng” trong vài giây – ranh giới giữa thật và giả trở nên mong manh hơn bao giờ hết. Các công cụ như GPTZero, Originality.ai, hay phần mềm phát hiện deepfake giúp soi ra dấu hiệu đáng nghi, nhưng phán đoán cuối cùng vẫn phải dựa vào con người với tư duy phản biện.
Nhiều nội dung phản tuyên truyền có điểm chung: văn phong quá trôi chảy, giọng điệu cực đoan, hoặc giống nhau bất thường giữa nhiều tài khoản. Một số video có biểu cảm lạ, ánh sáng sai lệch hoặc khẩu hình không khớp – cũng là dấu hiệu đáng ngờ. Đôi khi, chỉ cần cảm thấy “có gì đó sai sai” mà không rõ lý do, bạn đã đúng khi nghi ngờ. Nhưng mấu chốt không nằm ở kỹ thuật mà ở ẩn ý của nội dung.
Nó đang thông tin hay đang dẫn dắt? Gợi suy nghĩ hay kích động? Khi mục tiêu không còn là trao đổi quan điểm, mà là gieo rắc hoài nghi và chia rẽ, đó chính là phản tuyên truyền. Nhận diện nội dung độc hại do AI không dễ – nhưng hoàn toàn có thể, nếu mỗi người dùng rèn luyện khả năng nghi ngờ đúng lúc và hiểu cách thức AI vận hành. Đây cũng chính là yêu cầu của Nghị quyết 35-NQ/TW về bảo vệ nền tảng tư tưởng của Đảng, khi nhấn mạnh nhiệm vụ nâng cao năng lực cảnh báo và xử lý thông tin xấu, độc trên không gian mạng, đặc biệt trong bối cảnh AI đang làm lu mờ ranh giới giữa thật – giả.
Bài học quốc tế trong quản lý AI và thông tin sai lệch
Nhiều quốc gia và khu vực đã bắt đầu triển khai các biện pháp quản lý AI gắn với phòng chống thông tin sai lệch. EU, Mỹ, Trung Quốc và UNESCO,
OECD đều có các hướng tiếp cận khác nhau nhưng đều ưu tiên kiểm soát rủi ro và minh bạch. Dù mỗi nơi một cách, điểm chung là cần hợp tác đa bên và hệ thống thích ứng liên tục.
Bảng 3: Phân tích so sánh các khung quản trị AI chính (Đạo luật AI EU, OECD, UNESCO) về thông tin sai lệch
|
Khung |
Cách tiếp cận thông tin sai lệch |
Các điều khoản chính liên quan |
Mức độ liên quan đến “Phản tuyên truyền”/An ninh Tư tưởng |
Điểm mạnh |
Hạn chế/Khoảng trống |
|
Đạo luật AI EU |
Dựa trên rủi ro; cấm thao túng tiềm thức/hành vi gây hại; yêu cầu minh bạch/ghi nhãn cho GenAI và deepfake. |
Cấm các hệ thống thao túng hành vi gây hại đáng kể; phân loại hệ thống ảnh hưởng bầu cử là rủi ro cao; yêu cầu ghi nhãn nội dung AI/deepfake; yêu cầu ngăn chặn tạo nội dung bất hợp pháp. |
Cao (liên quan đến thao túng, ảnh hưởng bầu cử, nội dung bất hợp pháp). |
Ràng buộc pháp lý; yêu cầu cụ thể cho GenAI/deepfake; phân loại rủi ro. |
Ngoại lệ an ninh quốc gia; rủi ro trong việc tự xác định mức độ rủi ro; có thể chưa đủ bao quát các hình thức phản tuyên truyền tinh vi nhắm vào hệ tư tưởng. |
|
Nguyên tắc AI OECD |
Nhấn mạnh các giá trị (quyền con người, giá trị dân chủ, minh bạch, trách nhiệm giải trình) và khuyến nghị chính sách. |
Nguyên tắc về quyền con người và giá trị dân chủ (bao gồm giải quyết thông tin sai lệch); minh bạch và khả năng giải thích; vững chắc, an ninh & an toàn; trách nhiệm giải trình. |
Trung bình-Cao (đề cập đến giá trị dân chủ, thông tin sai lệch, trách nhiệm). |
Ảnh hưởng toàn cầu; linh hoạt; tập trung vào các giá trị nền tảng. |
Không ràng buộc pháp lý; ít chi tiết về cơ chế thực thi cụ thể chống phản tuyên truyền. |
|
Khuyến nghị Đạo |
Dựa trên giá trị và nguyên tắc |
Nguyên tắc công bằng và không phân biệt đối xử; minh bạch và khả |
Trung bình-Cao (nhấn mạnh nhân quyền, |
Tiêu chuẩn toàn cầu đầu tiên; phạm vi rộng; có |
Không ràng buộc pháp lý; cần các quốc |
|
Khung |
Cách tiếp cận thông tin sai lệch |
Các điều khoản chính liên quan |
Mức độ liên quan đến “Phản tuyên truyền”/An ninh Tư tưởng |
Điểm mạnh |
Hạn chế/Khoảng trống |
|
đức AI UNESCO |
(nhân quyền, công bằng, minh bạch, trách nhiệm); có các lĩnh vực hành động chính sách. |
năng giải thích; trách nhiệm và giải trình; giám sát của con người; lĩnh vực chính sách về truyền thông và thông tin. |
công bằng, trách nhiệm, lĩnh vực truyền thông). |
công cụ triển khai (RAM, EIA); chú trọng đa dạng, hòa nhập. |
gia thành viên cụ thể hóa thành luật/chính sách. |
Nhìn chung, các tổ chức quốc tế lớn như EU, OECD và UNESCO đều đã có những hướng dẫn hoặc quy định về AI, tập trung vào các vấn đề như ngăn chặn thao túng, đảm bảo minh bạch và quyền con người. Tuy nhiên, mức độ ràng buộc pháp lý và chi tiết thực thi còn khác nhau.
Trong khu vực, Singapore là quốc gia đi đầu khi xây dựng Bộ Quy tắc quản trị AI từ 2019 và cập nhật vào 2024 để bao gồm cả rủi ro thao túng tư tưởng.
Malaysia và Indonesia cũng đã đưa ra chiến lược quốc gia về AI, trong đó nhấn mạnh yêu cầu minh bạch và đánh giá đạo đức trước khi triển khai công nghệ tại quy mô lớn. Những kinh nghiệm này hoàn toàn có thể tham khảo cho Việt Nam trong việc thiết kế chính sách đặc thù.
Dù thế giới đã nỗ lực xây dựng đạo luật, tiêu chuẩn đạo đức và cơ chế kiểm soát AI, thực tế cho thấy luật pháp đang bị bỏ lại phía sau. Báo cáo của OECD năm 2023 cho thấy, chỉ có khoảng 11 quốc gia trên thế giới đã ban hành luật trực tiếp điều chỉnh các mô hình tạo sinh, trong khi phần lớn còn đang trong giai đoạn khuyến nghị hoặc thử nghiệm chính sách. Khoảng trống này là cơ hội để các chiến thuật thao túng bằng AI phát triển vượt tầm kiểm soát.
Nhìn chung, kinh nghiệm quốc tế cho thấy quản lý AI và thông tin sai lệch không thể chỉ dựa vào luật lệ đơn lẻ, mà cần một hệ sinh thái thích ứng liên tục với sự phối hợp đa bên của chính phủ, doanh nghiệp, cộng đồng. Dù các phương pháp khác nhau, điểm chung là nhận thức rõ nguy cơ và nỗ lực xây dựng cơ chế kiểm soát, là bài học quý báu cho Việt Nam khi thiết kế chính sách đặc thù, phù hợp bối cảnh trong nước và ưu tiên đảm bảo an ninh tư tưởng.
Ba lớp phòng thủ trước nguy cơ AI trở thành công cụ phản tuyên truyền
Chống lạm dụng trí tuệ nhân tạo cho mục đích xấu không thể chỉ trông chờ vào giải pháp đơn lẻ hay biện pháp tình thế. Đây là thách thức hệ thống, đòi hỏi chiến lược phòng thủ đa tầng, phối hợp ba yếu tố: chính sách nhà nước chủ động, sắc bén; công nghệ minh bạch, có kiểm soát; và cộng đồng người dùng tỉnh táo, có kiến thức.
Quan điểm này hoàn toàn phù hợp với những định hướng lớn của Đảng và Nhà nước ta. Văn kiện Đại hội XIII đã chỉ rõ sự cần thiết phải “tăng cường ứng dụng khoa học – công nghệ, nhất là công nghệ số, trí tuệ nhân tạo trong quản lý nhà nước, quốc phòng – an ninh; nâng cao năng lực dự báo và phản ứng chính sách”. Trong bối cảnh AI tác động sâu rộng, xây dựng ba lớp phòng thủ này không chỉ là yêu cầu kỹ thuật mà còn cụ thể hóa định hướng chiến lược của Đảng về bảo vệ an ninh tư tưởng quốc gia thời đại số. Tương tự, Chương trình Chuyển đổi số quốc gia cũng đã xác định rõ vai trò then chốt của AI trong việc bảo đảm an ninh mạng và phát triển chính phủ số, đồng thời nhấn mạnh yêu cầu về sự đồng bộ, hài hòa giữa phát triển công nghệ, hoàn thiện thể chế và nâng cao chất lượng nguồn nhân lực.
Lớp phòng thủ thứ nhất: Chính sách chủ động, khung pháp lý hoàn thiện và tăng cường hợp tác quốc tế.
Cần khẩn trương xây dựng, ban hành hệ thống quy định pháp lý và tiêu chuẩn kỹ thuật rõ ràng để đánh giá rủi ro ứng dụng AI, nhất là GenAI có khả năng tạo, phát tán nội dung độc hại quy mô lớn. Kinh nghiệm Đạo luật AI của EU là tham khảo giá trị, song chính sách tại Việt Nam cần điều chỉnh linh hoạt phù hợp đặc thù đất nước, ưu tiên đảm bảo an ninh tư tưởng và ổn định chính trị – xã hội.
Dù kiểm soát AI rất cần thiết, không nên cấm đoán cực đoan gây cản trở đổi mới sáng tạo và tiềm năng phát triển của AI. Thay vào đó, một giải pháp được nhiều chuyên gia đề xuất là tạo ra các “khuôn khổ thử nghiệm có kiểm soát”. Đây là việc tạo môi trường pháp lý đặc biệt, an toàn, cho phép doanh nghiệp, tổ chức nghiên cứu thử nghiệm ứng dụng AI mới, nhất là trong lĩnh vực nhạy cảm (tài chính, y tế, truyền thông), dưới sự giám sát chặt chẽ của cơ quan quản lý, trước khi triển khai diện rộng.
Bên cạnh đó, tăng cường hợp tác quốc tế trong lĩnh vực AI cũng rất quan trọng. Cần chủ động học hỏi kinh nghiệm từ các quốc gia đi trước, tham gia diễn đàn, tổ chức quốc tế để cùng xây dựng tiêu chuẩn chung về nền AI an toàn, minh bạch, có trách nhiệm và phục vụ lợi ích con người.
Lớp phòng thủ thứ hai: Phát triển công nghệ AI theo hướng minh bạch và xây dựng các công cụ hỗ trợ hiệu quả.
Song song với hoàn thiện chính sách, cần thúc đẩy mạnh mẽ nghiên cứu, phát triển, ứng dụng giải pháp công nghệ nhằm tăng cường tính minh bạch và khả năng kiểm soát AI. Cụ thể:
Khuyến khích phát triển các công cụ phát hiện: cần có sự đầu tư và khuyến khích từ Nhà nước cũng như sự vào cuộc của các doanh nghiệp công nghệ để nghiên cứu, phát triển các công cụ hiệu quả giúp phát hiện nhanh chóng và chính xác các sản phẩm deepfake, các loại tin giả do AI tạo ra.
Nghiên cứu công nghệ “dán nhãn”: cần thúc đẩy việc nghiên cứu và áp dụng các công nghệ “dán nhãn” hoặc “ký hiệu số” cho những nội dung được tạo ra bởi AI. Những nhãn này cần được thiết kế sao cho rõ ràng, dễ nhận biết đối với người dùng phổ thông, giúp họ biết được nguồn gốc của thông tin.
Xây dựng các mô hình AI “sạch” và đáng tin cậy: chất lượng của AI phụ thuộc rất lớn vào dữ liệu mà nó được huấn luyện. Do đó, cần ưu tiên xây dựng mô hình AI huấn luyện bằng bộ dữ liệu lớn, đa dạng, đã kiểm chứng và đáng tin cậy. Điều này giúp giảm thiểu các thiên kiến không mong muốn trong AI và hạn chế nguy cơ AI bị “đầu độc” bởi dữ liệu xấu – một thủ đoạn mà kẻ xấu có thể sử dụng để làm sai lệch hành vi của AI.
Phát triển các nền tảng ưu tiên sự thật: Khuyến khích các nhà phát triển nền tảng số, các mạng xã hội xây dựng và tích hợp các cơ chế kiểm chứng thông tin, xếp hạng mức độ tin cậy của các nguồn tin, và ưu tiên hiển thị những nội dung đã được xác thực”.
Lớp phòng thủ thứ ba: Xây dựng một cộng đồng người dùng tỉnh táo, có ý thức cảnh giác cao và được trang bị đầy đủ kỹ năng số.
Đây có thể coi là lớp phòng thủ nền tảng và quan trọng nhất, bởi lẽ công nghệ dù có phát triển đến đâu, chính sách dù có hoàn thiện thế nào, thì yếu tố con người vẫn luôn đóng vai trò quyết định. Để xây dựng lớp phòng thủ này, cần tập trung vào các giải pháp sau:
Trang bị kỹ năng “miễn dịch số” và “vệ sinh thông tin”: Cần phải trang bị rộng rãi cho người dân, đặc biệt là thế hệ trẻ – những chủ nhân tương lai của đất nước, các kỹ năng thiết yếu trong thời đại số. Đó là kỹ năng mà chúng ta có thể gọi là “miễn dịch số” – tức là khả năng tự bảo vệ mình trước những thông tin độc hại, giống như cơ thể chúng ta có hệ miễn dịch để chống lại bệnh tật. Đó còn là thói quen “vệ sinh thông tin” – gồm ý thức nhận diện dấu hiệu tin giả, thực hành tư duy phản biện, và quan trọng nhất là kiểm chứng thông tin cẩn thận từ nhiều nguồn tin cậy trước khi tin và chia sẻ.
Đưa giáo dục về AI và tin giả vào nhà trường: cần sớm nghiên cứu đưa nội dung giáo dục về AI, nguy cơ từ tin giả, thông tin sai lệch, và phương pháp rèn luyện tư duy phản biện vào chương trình học các cấp phù hợp từng lứa tuổi.
Các cơ quan báo chí chính thống, các nhà sản xuất nội dung có uy tín cần tiếp tục phát huy vai trò nòng cốt của mình trong việc cung cấp thông tin chính xác, kịp thời, có kiểm chứng; chủ động định hướng dư luận xã hội một cách đúng đắn; và tích cực đấu tranh, phản bác các luận điệu sai trái, thù địch.
Trí tuệ nhân tạo, dù tiên tiến đến đâu, cũng không thể tự điều chỉnh nếu không có sự định hướng của con người. Cố Tổng Bí thư Nguyễn Phú Trọng đã nhiều lần khẳng định: bảo vệ nền tảng tư tưởng của Đảng là trách nhiệm chính trị hàng đầu, không thể lơi lỏng – nhất là khi cuộc đấu tranh giờ đây không chỉ diễn ra trên mặt đất, mà cả trong không gian số vô hình.
Chống lại AI bị lạm dụng không phải việc riêng của Nhà nước hay công ty công nghệ. Mỗi người dùng cũng là một mắt xích quan trọng. Khi ba lớp phòng thủ – chính sách, công nghệ, và cộng đồng – cùng hoạt động, sẽ không chỉ giảm thiểu rủi ro mà còn chuyển hóa AI thành công cụ bảo vệ sự thật.
Làm chủ công nghệ, bảo vệ sự thật và tương lai
Cuộc chiến giữa sự thật và giả dối trong thời đại trí tuệ nhân tạo (AI) không chỉ là một cuộc đối đầu trên không gian mạng. Quan trọng hơn, đó là một cuộc đấu tranh diễn ra ngay trong chính nhận thức, tư duy và niềm tin của mỗi chúng ta. AI, với sức mạnh và tiềm năng to lớn, vừa mở ra vô vàn cơ hội phát triển, đồng thời đặt ra thách thức không nhỏ, đặc biệt trong lĩnh vực tư tưởng và an ninh thông tin.
Để giữ vững sự thật, bảo vệ vững chắc nền tảng tư tưởng của Đảng và giá trị cốt lõi dân tộc trong kỷ nguyên AI biến động này, không thể chỉ dựa vào nỗ lực của vài cá nhân hay tổ chức riêng lẻ. Điều này đòi hỏi sự vào cuộc quyết liệt, chung tay góp sức của cả hệ thống chính trị, từ cơ quan hoạch định chính sách, đơn vị nghiên cứu khoa học, doanh nghiệp công nghệ, đến từng người dân, đặc biệt là thế hệ trẻ – người định hình tương lai đất nước.
Đây là một hành trình không ngừng nghỉ, một cuộc chiến đòi hỏi sự kiên trì, trí tuệ và bản lĩnh. Tuy nhiên, với sự chủ động trong nhận diện nguy cơ, với việc không ngừng học hỏi và nâng cao hiểu biết, với tinh thần đoàn kết và ý chí quyết tâm, chúng ta hoàn toàn có đủ khả năng để làm chủ công nghệ. Chúng ta có thể biến AI từ nguy cơ tiềm ẩn thành công cụ hữu ích, phục vụ đắc lực sự nghiệp xây dựng, phát triển đất nước bền vững, đồng thời bảo vệ vững chắc giá trị văn hóa, lịch sử, tư tưởng cha ông đã dày công vun đắp.
Tương lai của không gian mạng Việt Nam, sự trong sáng của môi trường thông tin, và sự vững vàng của nền tảng tư tưởng quốc gia phụ thuộc rất lớn vào hành động của chúng ta ngày hôm nay.
* Bài viết dự thi cuộc thi chính luận về bảo vệ nền tảng tư tưởng của Đảng lần thứ 5, năm 2025
Nguồn: https://thanhnien.vn/chu-dong-phong-ngua-nguy-co-thao-tung-tu-tuong-tu-tri-tue-nhan-tao-185250912180558712.htm

