Thế giới với AI muôn mặt
Sau một năm 2024 bùng nổ các ứng dụng trí tuệ nhân tạo tạo sinh Gen AI, thế giới đang phải đứng trước những thách thức mới do công nghệ AI mang lại. Vấn đề nằm ở chỗ hầu như tất cả còn mới lạ, Mặc dù AI là một công nghệ đã được biết đến và nói tới từ rất lâu khi nó đã được coi là một ngành học thuật vào năm 1956, nhưng phải đợi tới cuối tháng 11-2022, khi công ty khởi nghiệp OpenAI (Mỹ) đưa ra thị trường ứng dụng ChatGPT, AI mới thật sự “vào đời” với tốc độ lốc xoáy.
Hai vấn đề nóng bỏng nhất hiện nay của thế giới là trách nhiệm ứng dụng AI như thế nào và nguy cơ an ninh mạng với sức mạnh AI.
Ảnh do AI Microsoft Copilot DALL-E 3 tạo. Thanks.
Ứng dụng AI rất cần thiết nhưng phải có trách nhiệm
Nếu như vào năm 2024, Vertiv, nhà cung cấp cơ sở hạ tầng kỹ thuật số và các giải pháp quản lý toàn cầu của Mỹ, đặt tầm quan trọng về các quy định của chính phủ các nước đối với việc sử dụng năng lượng, thì vào năm 2025, Vertiv kỳ vọng các quy định của chính phủ sẽ ngày càng chú trọng hơn đến việc giải quyết vấn đề sử dụng AI. Chính phủ và các cơ quan quản lý trên toàn thế giới đang chạy đua để đánh giá các tác động của AI và phát triển các khung pháp lý để quản lý việc sử dụng công nghệ này. Xu hướng hướng tới AI có chủ quyền (sovereign AI) – quyền kiểm soát hoặc ảnh hưởng của một quốc gia đối với việc phát triển, triển khai và quản lý AI cũng như các khung quy định nhằm quản lý AI – là trọng tâm của Đạo luật Trí tuệ Nhân tạo (Artificial Intelligence Act) của Liên minh Châu Âu (EU) và Khung quản trị An toàn AI của Trung Quốc. Đan Mạch gần đây đã khánh thành siêu máy tính AI có chủ quyền của riêng mình, và nhiều quốc gia khác đã thực hiện các dự án AI có chủ quyền và quy trình lập pháp riêng của họ để củng cố các khung pháp lý về việc ứng dụng. Phổ biến là chính phủ các nước sẽ đưa ra một số hình thức hướng dẫn, thậm chí có thể đặt ra những hạn chế theo hướng chủ đạo là ứng dụng AI có trách nhiệm. Theo Oracle, AI có chủ quyền nói đến quyền kiểm soát của chính phủ hoặc tổ chức đối với các công nghệ AI và dữ liệu liên quan. Điều này thường bao gồm các quy định của chính phủ quản lý cách các công nghệ AI được triển khai và vận hành, bao gồm cơ sở hạ tầng phần cứng và phần mềm cũng như các chính sách và nhân sự được sử dụng để vận hành các công nghệ AI và bảo vệ dữ liệu.
Trong những tháng gần đây, Việt Nam cũng đang trong cơn lốc xoáy AI, thậm chí muốn “lên đồng” với AI. Đi đâu, làm gì, người ta cũng đều gắn với AI. Có một chuyên gia công nghệ phải thốt lên: “Nguy cơ cuồng AI là có thật!” Bên cạnh các lớp dạy về việc ứng dụng AI cho cuộc sống được coi là rất cần thiết, cũng không hiếm những chương trình hướng dẫn cách tạo ra các ứng dụng AI, huấn luyện AI phục vụ cho những mục đích riêng. Vì thế, ngay từ thuở ban đầu rất cần có những định hướng và hành lang pháp lý để bảo đảm tận dụng tối đa các sức mạnh của công nghệ AI một cách hữu ích và an toàn.
Ở Việt Nam, hồi giữa năm 2024, Bộ Khoa học và Công nghệ đã ban hành tài liệu hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo (AI) có trách nhiệm nhằm hướng đến một xã hội lấy con người làm trung tâm, mọi người được hưởng những lợi ích từ các hệ thống AI, bảo đảm sự cân bằng hợp lý giữa lợi ích và rủi ro của các hệ thống AI. Đây là lần đầu tiên Việt Nam có hướng dẫn của nhà nước về AI có trách nhiệm, nhằm thúc đẩy việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng AI một cách an toàn và có trách nhiệm, đồng thời hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng.
Ảnh do AI Microsoft Copilot DALL-E 3 tạo. Thanks.
Không gian mạng trong thời AI
Tạp chí Forbes (Mỹ) đã phải giựt tít nhấn mạnh về việc “các cuộc tấn công mạng được AI hỗ trợ sẽ định hình lại việc bảo vệ mạng”.
Cũng theo các chuyên gia của Vertiv: Tần suất và mức độ nghiêm trọng ngày càng tăng của các cuộc tấn công bằng mã độc (ransomeware) đang thúc đẩy một cái nhìn mới, rộng hơn về các quy trình an ninh mạng và vai trò của cộng đồng trung tâm dữ liệu trong việc ngăn chặn các cuộc tấn công như vậy. Theo báo cáo Verizon’s 2024 Data Breach Investigations Report (DBIR), một phần ba trong số tất cả các cuộc tấn công trong năm qua liên quan đến một số hình thức mã độc hoặc tống tiền, và những kẻ xấu giờ đây đang tận dụng các công cụ AI để tăng cường các cuộc tấn công của chúng, mở rộng phạm vi và triển khai các phương pháp tinh vi hơn. Các cuộc tấn công ngày càng thêm dùng AI để hỗ trợ hack các hệ thống điều khiển, các thiết bị nhúng hoặc hệ thống phần cứng và cơ sở hạ tầng được kết nối – những thành phần mà vốn không phải lúc nào cũng được xây dựng để đáp ứng các yêu cầu bảo mật giống như các thành phần mạng khác. Nếu không có sự cẩn trọng thích hợp, ngay cả trung tâm dữ liệu tinh vi nhất cũng có thể trở nên vô dụng.
Khi tội phạm mạng đang tiếp tục tận dụng AI để tăng tần suất tấn công, các chuyên gia an ninh mạng, quản trị mạng và các nhà điều hành trung tâm dữ liệu sẽ cần phải theo kịp bằng cách phát triển các công nghệ an ninh AI tinh vi của riêng mình. Mặc dù các nguyên tắc cơ bản và các phương pháp tốt nhất của chiến lược phòng thủ sâu và sự cảnh giác cao độ vẫn không thay đổi, thế nhưng bản chất, nguồn gốc và tần suất thay đổi của các cuộc tấn công có liên quan tới AI cũng đã làm tăng thêm sắc thái cho các nỗ lực an ninh mạng hiện đại.
Trong cuốn sách “The Cybersecurity Mindset” (Tư duy An ninh mạng), tác giả Dewayne Hart, Chủ tịch và CEO của công ty an ninh mạng SEMAIS, đã nhấn mạnh rằng trong chiến tranh mạng, người ta cần có các thuật toán bảo mật mạnh mẽ để đối phó với các cuộc tấn công mạng dựa trên AI. Ông cho biết: AI đã đưa ra những thách thức mà các thuật toán bảo mật phải trở nên có khả năng dự đoán, nhanh chóng và chính xác. Điều này định hình lại khả năng bảo vệ mạng vì các thiết bị cơ sở hạ tầng của tổ chức phải hỗ trợ các phương pháp mới, dùng AI để trị AI.
Nền tảng an ninh mạng dựa trên AI Crowdstrike nói rằng: “AI đã trở thành công nghệ then chốt trong mọi hộp công cụ CNTT của doanh nghiệp – và nó cũng đã trở thành vũ khí trong kho vũ khí của tội phạm mạng.” Các cuộc tấn công mạng do AI hỗ trợ tận dụng các thuật toán và kỹ thuật AI hoặc máy học (ML) để tự động hóa, đẩy nhanh hoặc tăng cường các giai đoạn khác nhau của một cuộc tấn công mạng. Các thuật toán được sử dụng bởi các cuộc tấn công mạng do AI hỗ trợ có thể học hỏi và phát triển theo thời gian. Điều này có nghĩa là các cuộc tấn công mạng do AI hỗ trợ có thể thích ứng để tránh bị phát hiện hoặc tạo ra một kiểu tấn công mà hệ thống bảo mật không thể phát hiện. Đó là lý do mà các cuộc tấn công mạng dựa trên AI sẽ ngày càng nguy hiểm hơn, khó đối phó hơn.
Nguy cơ lừa đảo bằng AI
Trong khi các tổ chức, doanh nghiệp phải đứng trước nguy cơ các cuộc tấn công xâm nhập mạng, đánh cắp dữ liệu do AI thực hiện, cộng đồng người dùng đang “phơi mình” trước những nguy cơ lừa đảo, chiếm đoạt tài sản bằng AI.
Các cuộc tấn công lừa đảo sử dụng AI tạo sinh để tạo ra các email, tin nhắn SMS, liên lạc qua điện thoại hoặc tiếp cận phương tiện truyền thông xã hội được cá nhân hóa và thực tế cao để đạt được kết quả mong muốn. Trong hầu hết các trường hợp, mục tiêu của các cuộc tấn công này giống với mục tiêu của một cuộc tấn công kỹ thuật xã hội: truy cập thông tin nhạy cảm, truy cập vào hệ thống, nhận tiền hoặc nhắc nhở người dùng cài đặt tệp độc hại trên thiết bị của họ.
Trong các trường hợp nâng cao, AI có thể được sử dụng để tự động hóa giao tiếp thời gian thực mà kẻ xuất sử dụng trong các cuộc tấn công lừa đảo. Ví dụ: các chatbot hỗ trợ AI có thể hỗ trợ các tương tác khiến người ta gần như không thể phân biệt được chatbot với con người. Kẻ tấn công có thể sử dụng các công cụ này, được triển khai ở quy mô lớn, để cố gắng kết nối với vô số cá nhân cùng một lúc. Trong nhiều trường hợp, các chatbot này đóng vai trò là nhân viên hỗ trợ khách hàng hoặc dịch vụ để cố gắng thu thập thông tin cá nhân và thông tin đăng nhập tài khoản, đặt lại mật khẩu tài khoản hoặc truy cập vào hệ thống hoặc thiết bị.
Hung thần lừa đảo deepfake với những video, hình ảnh hoặc tệp âm thanh do AI tạo ra nhằm mục đích lừa dối mọi người. Ngoài mục đích giải trí và gây nhầm lẫn, deepfake cũng có thể được sử dụng một cách ác ý hơn như một phần của các chiến dịch thông tin sai lệch, “tin giả”, các chiến dịch bôi nhọ những cá nhân có địa vị cao hoặc các cuộc tấn công mạng. Công cụ này có thể bắt chước giọng nói của một người có quyền lực nào đó và hướng dẫn nạn nhân thực hiện một hành động cụ thể, chẳng hạn như chuyển tiền, thay đổi mật khẩu hoặc cấp quyền truy cập hệ thống.
Cả thế giới đang ngày càng tiến sâu hơn vào kỷ nguyên AI. Đó là một xu thế thời đại, và công nghệ AI là một công cụ trong tay con người, tốt hay xấu tùy người sử dụng. Dĩ độc trị độc. Vì thế, nhiều chuyên gia khuyến cáo rằng để chống lại các nguy cơ từ mặt trái của AI, chúng ta cần phải dùng chính các công cụ AI để tăng cường sức bảo vệ mình. Bây giờ là cuộc tỷ thí giữa 2 đấu thủ cùng môn phái, ai giỏi và thông minh hơn, ắt có cơ hội thắng cao hơn.
Tại Hội thảo – Triển lãm Ngày An toàn Thông tin Việt Nam 2024 ở Hà Nội hồi hạ tuần tháng 11-2024, Thứ trưởng Bộ Thông tin và Truyền thông Bùi Hoàng Phương lưu ý: Trong bối cảnh các cuộc tấn công mạng liên tục phát triển với mức độ ngày càng tinh vi phức tạp, nhất là khi có sự hỗ trợ của AI, nguy cơ chúng ta phải đối mặt rủi ro sẽ ngày càng tăng theo cấp số nhân. Điều này đòi hỏi mọi cơ quan, tổ chức cần liên tục cải thiện năng lực an toàn thông tin, chủ động triển khai các phương án bảo đảm an toàn thông tin và duy trì công tác này một cách liên tục.
Theo số liệu của Bộ TT-TT, số vụ tấn công mạng trong 9 tháng đầu năm 2024 ở Việt Nam đã giảm 55% so với cùng kỳ năm trước. Hệ thống giám sát quốc gia đã xử lý hơn 10,5 tỷ bản tin; ngăn chặn thành công hơn 14.552 website độc hại; bảo vệ an toàn cho hơn 11,32 triệu người dùng. Tuy nhiên, Việt Nam vẫn đối mặt với những thách thức nghiêm trọng. Nạn lừa đảo trực tuyến vẫn diễn biến phức tạp với hàng trăm nghìn lượt phản ánh. Việc hơn 90% camera an ninh giám sát có nguồn gốc nước ngoài đang đặt ra những lo ngại về bảo mật dữ liệu quốc gia.
Bản in trên báo Người Lao Động Chủ nhật 8-12-2024 và trên báo NLĐ Online.
ANH PHÚC