Thứ Năm ngày 21 tháng 11 năm 2024

Đạo đức AI, chuyện đừng dễ ngươi

Chẳng cần phải có kiến thức về công nghệ, chỉ cần xem qua những bộ phim khoa học giả tưởng của Hollywood là người ta đủ để lo sợ về một tương lai do trí tuệ nhân tạo (AI) thống trị toàn diện trên toàn cầu. Và ngay từ trước khi ứng dụng AI ChatGPT chính thức được startup công nghệ Mỹ OpenAI tung ra cuộc đời vào ngày 30-11-2022, các chuyên gia đã cảnh báo về khia cạnh đạo đức của việc ứng dụng AI. Chuyện này đã trở thành bức thiết và đã có những “hậu quả nhãn tiền” trong làn sóng ứng dụng AI bùng nổ toàn cầu sau cú huých ChatGPT.

Người ta không thể dễ ngươi về AI. AI là cứu tinh nhưng cũng có thể “phản chủ” thành hung thần. Công nghệ AI mô phỏng bộ não con người, nhưng nó mạnh hơn bộ não con người nhờ có thể tìm kiếm, thu nạp và xử lý dữ liệu rộng lớn và nhanh như chớp mắt. Một điều cần chú ý là AI không chỉ được con người liên tục phát triển, nâng cấp mà bản thân nó còn có thể tự phát triển thông qua những cấp độ cao hơn như Máy học (Machine learning), Học sâu (Deep learning),…

(Ảnh: Internet. Thanks.)

Mặc dù người dùng ChatGPT hiện nay hầu hết là do tò mò, nhưng các nhà chuyên môn cảnh báo rằng sẽ rất sớm để xảy ra tình trạng lạm dụng, lợi dụng siêu chatbot này cho những mục đích xấu, thậm chí mang tính tội phạm. Trên Internet cũng đã có những thông tin về những vụ “đánh lừa” được ChatGPT để nó vượt qua luật lệ (của nhà phát triển) mà phục vụ cho ý đồ riêng của người dùng.

Chẳng hạn, bọn xấu có thể dùng các công cụ AI như ChatGPT để tìm kiếm thông tin, thậm chí giải pháp tham khảo cho mình. Đặc biệt hơn cả, với khả năng xử lý thông tin, dữ liệu “kinh khủng” của mình, các ứng dụng AI chắc chắn sẽ gây ra những vấn đề về bản quyền tác giả. Người ta sẽ phải đối mặt với những tác phẩm nhẹ thì nửa người, nửa máy, nặng thì hoàn toàn do AI tạo ra nhưng ký tên người nào đó. Ngành giáo dục sẽ phải tìm cách xử lý những bài tập, bài luận có sự “tham gia” của AI.

Trên Website của mình, Check Point Research ngày 6-1-2023 đã dẫn chứng 3 trường hợp ChatGPT đã bị bọn xấu sử dụng để viết phần mềm đánh cắp thông tin, công cụ mã hóa và gian lận.

Một khi được sử dụng ngày càng rộng rãi hơn mà không được “cha đẻ” trao cho khả năng phân biệt đúng sai, cái nào là phi logic, thậm chí phân biệt tốt xấu,… các ứng dụng AI như ChatGPT chẳng mấy chốc sẽ bị “quảng đại công chúng” cố tình “dạy” bậy bạ.

Ngày 28-2-2023, Viện Michael Dukakis, Diễn đàn Toàn cầu Boston (Boston Global Forum), Liên minh Toàn cầu về Quản trị số (GADG) tổ chức phiên thảo luận cấp cao đầu tiên (online) với sự tham gia của các chuyên gia toàn cầu để xây dựng dự thảo Khung Quy tắc Quản trị ChatGPT và các Trợ lý AI (Framework for ChatGPT and the Assistance of AI).

Ông Nguyễn Anh Tuấn, CEO của Diễn đàn Toàn cầu Boston (BGF), nguyên Tổng biên tập báo điện tử VietNamNet, cho biết: Công nghệ ChatGPT, được hỗ trợ bởi các công cụ AI, hứa hẹn to lớn, đồng thời làm tăng các mối quan tâm về thương mại, cạnh tranh và đạo đức. Các chuyên gia về công nghệ, quyền kỹ thuật số và ngoại giao đang vật lộn với những vấn đề hóc búa đòi hỏi phải khẩn trương xây dựng Khung pháp lý. Diễn đàn Toàn cầu Boston và Viện Michael Dukakis tổ chức một loạt Đối thoại cấp cao về ChatGPT và AI. Mục đích của các cuộc đối thoại này là tập hợp các nhà lãnh đạo, chuyên gia và nhà hoạch định chính sách nổi tiếng trong lĩnh vực AI và quản trị, chẳng hạn như Thống đốc Michael Dukakis – Đồng sáng lập kiêm Chủ tịch Diễn đàn Toàn cầu Boston (BGF); Giáo sư Martha Minow – nguyên Hiệu trưởng Trường Luật Harvard;các Giáo sư Alex Pentland và Nazli Choucri của MIT; các Giáo sư Thomas Patterson và David Silbersweig của Harvard; Cha đẻ của Internet Vint Cerf, Đặc phái viên của Tổng Thư ký LHQ về Công nghệ Amandeep Gill, cựu Thủ tướng Bosnia và Herzegovina Zlatko Lagumdzija, lãnh đạo OpenAI; các nhà lãnh đạo BGF; và đại diện chính phủ các nước Mỹ, Nhật Bản, Ấn Độ, Châu Âu, Canada, Úc và Hàn Quốc, để tham gia vào một dự án quan trọng. và thảo luận kích thích tư duy về ChatGPT và Trợ lý AI cũng như tác động của chúng đối với xã hội.

Trước đó,ngay từ năm 2019, các Trợ lý AI đã được BGF coi là một nhánh quyền lực trong Xã hội Trí tuệ nhân tạo (AIWS) – Kỷ nguyên Khai sáng Toàn cầu. Theo ông Nguyễn Anh Tuấn, Diễn đàn BGF và Liên minh GADG chủ động tìm các giải pháp giải quyết các rủi ro và thách thức do AI đặt ra trong cuộc sống hàng ngày của chúng ta. CEO của Diễn đàn BGF nói: “Là tổ chức hàng đầu về công nghệ và học thuật có trụ sở tại Boston (bang Massachusetts), chúng tôi hiểu tầm quan trọng của việc định hình sự phát triển và triển khai AI có trách nhiệm, bao gồm cả các Trợ lý AI như ChatGPT. Dựa trên mô hình 7 lớp của AIWS và Khế ước Xã hội cho Kỷ nguyên AI do BGF đề xuất trong Sáng kiến ​​Hội nghị thượng đỉnh AIWS – G7 năm 2019, chúng tôi hiện đang hợp tác chặt chẽ với các nhà phát triển Trợ lý AI để quản lý và giảm thiểu rủi ro tiềm ẩn của chúng. Thông qua sự hợp tác của chúng tôi với Sáng kiến ​​Liên Hiệp Quốc 100 năm và công bố tiêu chí về Kỷ nguyên Khai sáng Toàn cầu vào năm 2020, chúng tôi đặt mục tiêu sử dụng các nguồn lực của mình để dẫn dắt việc tạo ra các chính sách và quy định về AI có trách nhiệm thông qua Hiệp định quốc tế về AI. BGF và GADG quyết tâm đóng vai trò quan trọng trong việc định hình một tương lai có trách nhiệm và công bằng cho AI.”

Trong một hội nghị tại Mountain View (bang California) ngày 13-2-2023, huyền thoại công nghệ Vint Cerf, “Cha đẻ của Internet”, đã lên tiếng cảnh báo các công ty công nghệ lón đừng tranh nhau đầu tư vào AI đàm thoại chỉ vì ChatGPT “thật sự thú vị”. Ông nói: “Có một vấn đề đạo đức ở đây mà tôi hy vọng một số bạn sẽ xem xét. Mọi người đang nói về ChatGPT hoặc phiên bản Chat GPT của Google, được gọi là Bard, và chúng ta biết rằng nó không phải lúc nào cũng hoạt động theo cách chúng ta muốn.”

Ngay cả “cha đẻ của ChatGPT” là Sam Altman, CEO của OpenAI, cũng đã cảnh báo trên kênh truyền hình thời sự ABC News (16-3-2023) rằng công nghệ này mang đến một số mối nguy hiểm thật sự và xã hội phải rất cẩn trọng.

Tất nhiên, các ứng dụng AI là công cụ do chính con người tạo ra và huấn luyện. Cho dù thông minh tới mức nào, nó cũng chỉ là công cụ công nghệ phục vụ cho con người. Và điều quan trọng là các ứng dụng AI tốt hay xấu hoàn toàn do con người quyết định: từ ý đồ tạo ra tới mục đích sử dụng.

Và là thuật toán phần mềm, các ứng dụng AI vẫn không thể tránh khỏi những sự cố chập cheng hay bị kẻ xấu tác động.

Không ai có thể phủ nhận được những lợi ích mà AI đem lại cho con người khi nó được khai thác đúng đắn. Vì thế, vấn đề của vấn đề chính là cách mà con người quản lý AI – trước hết là các khung pháp lý và quy chuẩn đạo đức cho AI.

Ngay sau khi ChatGPT và một loạt ứng dụng AI tương tự được đưa ra thị trường, thậm chí có những người nhận định là đầy hấp tấp và sinh non, bên cạnh những lợi ích chưa từng có do chúng đem lại, thế giới cũng đã phải nếm mùi những hệ lụy do chúng gây ra, chủ yếu do bị lợi dụng. Thực tế cũng không loại trừ trong thời gian chuyển tiếp tranh tối tranh sáng chưa có những quy định cụ thể để quản lý việc sử dụng AI.

Từ nhiều năm trước, các ông lớn công nghệ như Microsoft, Google,… đều đã có những quy chuẩn đạo đức trong việc nghiên cứu phát triển AI. Thậm chí có những lãnh vực không được phép đưa AI vào. Microsoft đã thành lập Ủy ban AI, Đạo đức và Hiệu ứng trong Kỹ thuật và Nghiên cứu (Aether), đưa ra 6 nguyên tắc AI: công bằng, toàn diện, độ tin cậy và an toàn, minh bạch, quyền riêng tư và bảo mật cũng như trách nhiệm giải trình. Google liên kết các hoạt động AI có trách nhiệm của họ với hoạt động phát triển phần mềm có trách nhiệm, nhấn mạnh các khía cạnh như tính công bằng, khả năng diễn giải, quyền riêng tư và bảo mật. Facebook công nhận 5 trụ cột đối với AI có trách nhiệm: quyền riêng tư và bảo mật, công bằng và hòa nhập, mạnh mẽ và an toàn, minh bạch và kiểm soát, trách nhiệm giải trình và quản trị. Nhưng nhiều nhà chuyên môn cảnh báo việc có những công ty nhận ra những quy chuẩn đạo đức AI có thể “ngáng chân” họ trong cuộc chạy đua AI.

Rõ ràng, chỉ mới có ChatGPT mà xã hội thế giới đã loạn xà ngầu. Hàng loạt sự cố, từ những lỗi ban đầu của ứng dụng cho đến những sự lạm dụng ứng dụng cho việc xấu đã xảy ra.

Một trong những vấn đề đau đầu là quyền sở hữu trí tuệ khi các ứng dụng AI được đào tạo dựa trên các nguồn dữ liệu đang có trên thế giới. Một kết quả do ứng dụng AI tạo ra chứa đựng vô số dữ liệu của các chủ nhân khác nhau.

Một trong những rắc rối mang tính pháp lý về lạm dụng AI là vụ Getty Images, công ty kinh doanh dịch vụ cung cấp hình ảnh và video lớn nhất thế giới, ngày 6-2-2023 đã khởi kiện Stability AI, công ty tiên phong về AI Art, vì “vi phạm trắng trợn quyền sở hữu trí tuệ của Getty Images”. Getty cho biết Stability AI đã sao chép không được phép hơn 12 triệu hình ảnh từ cơ sở dữ liệu của Getty để phục vụ cho vệc huấn luyện mô hình AI của họ. Getty khẳng định Stability AI đã vi phạm cả bản quyền lẫn quyền bảo vệ thương hiệu.

Ngay từ nhiều năm trước, khi AI vẫn đang ở trong phòng thí nghiệm, người ta đã nói tới “AI có trách nhiệm” (Responsible AI). Nhưng Tiến sĩ Chirag Shah, Giáo sư tại Trường Thông tin, Phó Giáo sư tại Trường Khoa học & Kỹ thuật Máy tính Paul G. Allen, và là Phó Giáo sư về Thiết kế & Kỹ thuật lấy con người làm trung tâm (HCDE) tại Đại học Washington (UW), đã đặt lại câu hỏi: “AI có trách nhiệm. Vậy trách nhiệm đó thuộc về ai?”.

  • Bản in trên báo Người Lao Động thứ Bảy 6-5-2023 và trên báo NLĐ Online.

NGÔ LÊ