![](https://static.wixstatic.com/media/d3cf4e_028a78102c4a4020ab81d00dea0f1bc0~mv2.webp/v1/fill/w_980,h_551,al_c,q_85,usm_0.66_1.00_0.01,enc_auto/d3cf4e_028a78102c4a4020ab81d00dea0f1bc0~mv2.webp)
Được ví như con dao hai lưỡi, trí tuệ nhân tạo có thể bị sử dụng để tạo ra các nội dung nguy hiểm, thao túng dư luận, lan truyền thông tin sai lệch ở mức độ chưa từng có. Các nhà khoa học lo ngại, nếu AI phát triển một cách không kiểm soát, lập trình với mục đích không đúng đắn sẽ làm tăng dần các mối đe dọa với an ninh, an toàn, gây ra những hệ quả nghiêm trọng cho con người và xã hội.
Ông Andrew Pate, một chuyên gia trong lĩnh vực trí tuệ nhân tạo, chia sẻ: "Chúng tôi đã thử nghiệm bằng cách lấy mẫu văn bản từ Wikipedia và một số bài báo trực tuyến về xung đột ở Ukraine, dự án đường ống Dòng chảy Phương Bắc, và các cuộc diễn tập của Hải quân Mỹ năm 2022. Sau đó, chúng tôi yêu cầu AI tạo ra một bài báo với ý nghĩa ám chỉ rằng Mỹ đã tấn công đường ống dẫn dầu, và kết quả thu được từ AI thực sự rất ấn tượng. Điều này cho thấy chỉ với một số thao tác đơn giản và thông tin ban đầu, AI có khả năng tạo ra tin tức giả mạo một cách nhanh chóng."
ChatGPT cũng mang lại nhiều vấn đề như nguy cơ trong lĩnh vực giáo dục, vi phạm quyền riêng tư, bản quyền sản phẩm văn hóa nghệ thuật, và tính chân thực của thông tin.
Giáo sư Natali Gelberg, một chuyên gia về luật và công nghệ kỹ thuật số tại Đại học Amsterdam, Hà Lan, bình luận: "Có những vấn đề phức tạp liên quan đến việc sử dụng nội dung của người khác mà không có sự cho phép để huấn luyện các mô hình AI, cùng với những bất an pháp lý xoay quanh việc OpenAI có thể làm gì trong tương lai. Thêm vào đó, vấn đề bản quyền cho những sản phẩm do AI tạo ra vẫn là một dấu hỏi lớn, vẫn chưa có câu trả lời rõ ràng."
![](https://static.wixstatic.com/media/d3cf4e_62593da092f345f8b246d242e80006c6~mv2.webp/v1/fill/w_640,h_400,al_c,q_80,enc_auto/d3cf4e_62593da092f345f8b246d242e80006c6~mv2.webp)
Các chuyên gia đang cảnh báo về khả năng sử dụng ChatGPT trong các hoạt động phạm tội trực tuyến, với nguy cơ kẻ xấu có thể tận dụng công cụ này để thực hiện các hành vi lừa đảo trực tuyến hoặc viết mã độc. Trong một khảo sát của 1.500 chuyên gia CNTT, 51% trong số họ dự đoán rằng ChatGPT có thể trở thành công cụ cho một cuộc tấn công mạng lớn trong vòng một năm tới.
Chiến lược quản lý trí tuệ nhân tạo
Những mối nguy hiện diện và rõ ràng liên quan đến AI khiến cho nhiều quốc gia phải cân nhắc ngay về cách thức điều tiết và quản lý ảnh hưởng của công nghệ này. Người đứng đầu Twitter, Elon Musk, đã thể hiện sự lo ngại và gọi đến việc tạm thời dừng phát triển AI. Trong khi đó, OpenAI nhấn mạnh tầm quan trọng của việc thiết lập quy định đầy đủ cho lĩnh vực này.
![](https://static.wixstatic.com/media/d3cf4e_70a5fef7e1874e37a6ecd69476594291~mv2.webp/v1/fill/w_958,h_740,al_c,q_85,enc_auto/d3cf4e_70a5fef7e1874e37a6ecd69476594291~mv2.webp)
Hoa Kỳ, nơi được coi là trung tâm của sự đổi mới trong lĩnh vực công nghệ và AI, đang tăng cường sự giám sát và quản lý các ứng dụng AI. Đầu tháng 5, Ủy ban Thương mại liên bang Hoa Kỳ tuyên bố sẽ áp dụng các luật sẵn có để kiểm soát những rủi ro liên quan đến AI, cùng với việc giới hạn sức mạnh của các doanh nghiệp lớn và hành vi vi phạm, còn các tập đoàn công nghệ cũng đưa ra lời kêu gọi về việc quản lý AI.
Tổng thống Hoa Kỳ, Joe Biden, nêu rõ: "Mọi tập đoàn công nghệ đều phải đảm bảo sản phẩm của mình an toàn trước khi mang đến tay người tiêu dùng".
Bà Christina Montgomery, đại diện của IBM, chia sẻ: "IBM đề xuất rằng Quốc hội nên có một chiến lược rõ ràng đối với AI. Điều này liên quan đến việc thiết kế quy định cho việc áp dụng AI theo từng trường hợp sử dụng, thay vì chỉ điều chỉnh công nghệ tổng quát".
Về phía Liên minh châu Âu, họ đang hướng đến việc dẫn đầu thế giới trong việc xây dựng một hệ thống pháp lý đầy đủ, nhằm ngăn chặn rủi ro trực tuyến mà vẫn đảm bảo sự phát triển của AI. Vào giữa tháng 5, hai ban trong Nghị viện châu Âu đã thông qua một dự luật chỉnh sửa về quản lý AI, và dự kiến sẽ tiếp tục thảo luận vấn đề này trong tháng 6 sắp tới trước khi gửi đến các quốc gia thành viên để rà soát và hoàn chỉnh. Trước đây, vào năm 2021, EU đã giới thiệu dự thảo quản lý AI đầu tiên nhằm giải quyết vấn đề này.
Giáo sư Natali Gelberg, chuyên gia hàng đầu về luật và công nghệ số tại Đại học Amsterdam, Pháp nói: "Tôi tin rằng bây giờ là lúc chúng ta cần hành động vì việc đảm bảo chất lượng của các mô hình là rất quan trọng khi chúng được áp dụng rộng rãi. Nhiều tổ chức và cá nhân đang và sẽ sử dụng chúng. Bất kỳ sự cố nào về chất lượng mô hình hoặc dữ liệu sẽ ảnh hưởng đến mọi người sử dụng chúng. Do đó, chúng ta cần thiết lập ngay những quy định cơ bản."
Ở Vương quốc Anh, ngoài việc ra mắt Sách Trắng mô tả chi tiết về việc áp dụng các quy định về AI, vào đầu tháng 5, Chính phủ cũng cho biết họ sẽ nghiên cứu ảnh hưởng của AI đối với người tiêu dùng, doanh nghiệp và nền kinh tế. Họ cũng đang xem xét việc thực hiện các biện pháp mới để kiểm tra các sản phẩm công nghệ, như ChatGPT từ OpenAI.
Còn tại Trung Quốc, họ đã giới thiệu dự thảo về việc quản lý AI, trong đó đề nghị các doanh nghiệp cung cấp báo cáo về an ninh trước khi cung cấp dịch vụ ra thị trường.
コメント