AI :Những mặt trái và giải pháp khắc phục
(HNTTO) – Cuối thế kỷ 19, đầu thế kỷ 20, các nhà văn lớn đã dự báo về sự hủy diệt mà máy móc dành cho con người. Có thể khẳng định, sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo (AI), đặc biệt là AI tạo sinh, đã mang lại nhiều tiện ích trong mọi lĩnh vực cuộc sống. Song việc này cũng dẫn đến các lỗ hổng và mối đe dọa do AI kích hoạt phức tạp hơn, dai dẳng hơn và có khả năng gây thiệt hại nhiều hơn.
Không thể phũ nhận, AI hiện đang được ứng dụng rộng rãi trong kỷ nguyên số. Trong tương lai, AI sẽ tiếp tục đóng vai trò quan trọng trong việc định hình và văn hoá công nghiệp, văn háo du lịch và phát triển doanh nghiệp (DN).
Ví dụ điển hình, trong bối cảnh mưa lớn kéo dài và lũ lụt ở miền Bắc trong thời gian vừa qua, mạng xã hội chia sẻ tấm hình một thanh niên mặc áo rằn ri ngắn tay, bên ngoài khoác áo phao, bế trên tay em bé chừng vài tháng tuổi. Cả hai cùng cười rất tươi, sau lưng họ là khung cảnh lũ lụt, đổ nát. Nhiều bình luận đầy cảm xúc: Hậu duệ mặt trời chính là đây, Hai chú cháu đẹp quá, Tuyệt vời quá…Thếnhưng, sau đó nhiều người phát hiện ra bức ảnh là sản phẩm của AI (trí tuệ nhân tạo). Chỉ cần nhập nội dung yêu cầu với ChatGPT sẽ có câu trả lời mà độ chân thực, sắc nét về hình ảnh đã khiến không ít người lầm tưởng về một khoảnh khắc đẹp giữa thiên tai đang vây bủa.
Ảnh minh hoạ
Chia sẻ thêm về vấn đề này, TS. Hồ Minh Sơn – Viện trưởng Viện Nghiên cứu Thị trường – Truyền thông Quốc tế (IMRIC), Phó Tổng Biên tập Tạp chí Doanh nghiệp và Trang trại Việt Nam cho rằng, việc ứng dụng AI và các công nghệ mới khác đã không còn xa lạ trên thế giới nói chung và tại Việt Nam nói riêng. Từ đó, việc ứng dụng AI mang lại nhiều lợi ích tuy nhiên cũng có thể gây ra những rủi ro và thách thức mới, ảnh hưởng đến danh tiếng, tầm nhìn cũng như tổn thất về tài chính/dữ liệu cho DN, đồng thời gây ảnh hưởng đến xã hội, an ninh và chính trị. Cụ thể, các rủi ro trong ứng dụng AI được phân loại thành lỗ hổng và mối đe dọa, mỗi loại có phương pháp cụ thể để xác định, quản lý và giám sát các rủi ro liên quan.
Năm 2023, với màn ra mắt đầy ấn tượng của ChatGPT và sự tham gia vào cuộc đua nghiên cứu, phát triển và ứng dụng AI của hàng loạt ông lớn công nghệ trên phạm vi toàn cầu đã tác động không nhỏ đến đời sống thực.
Trong đó, những người làm văn hóa – nghệ thuật, họ có thêm công cụ hỗ trợ đắc lực cho công việc, nhưng mặt khác là không ít nỗi lo, trong đó có nỗi lo về bản quyền tác phẩm, về sự can thiệp sâu của công nghệ đối với công việc có tính sáng tạo cá nhân, độc bản. Ở góc nhìn hẹp, nỗi lo ấy đã trở thành hiện thực.
Được biết, 20 năm trước, điện ảnh Hollywood đã mang tới những siêu phẩm về sự trỗi dậy, sự thống trị của người máy. Đề tài này đến nay vẫn tiếp tục được khai thác với những thông điệp đầy tính cảnh báo. Cuối thế kỷ 19, đầu thế kỷ 20, các nhà văn lớn đã dự báo về sự hủy diệt mà máy móc dành cho con người. Tác phẩm “Hóa thân” của Franz Kafka là một minh chứng kinh điển. Và nay, qua một thế kỷ, đọc lại tác phẩm này, ta sẽ thấy những dự cảm của Franz Kafka vô cùng chính xác.
Sự biến đổi sâu sắc của khí hậu trong những năm gần đây với các hiện tượng thời tiết cực đoan xuất hiện ngày càng nhiều cho chúng ta hiểu rằng con người luôn bé nhỏ trước thiên nhiên vĩ đại và đầy bí mật. Cùng với đó, chúng ta phụ thuộc vào các phương tiện vật chất, mải miết theo đuổi những giá trị bên ngoài, những dự án, những cơ hội chinh phục và mở rộng về tài sản, lãnh địa, tầm ảnh hưởng.
Trong khi đó, khoa học và công nghệ ngày càng can thiệp sâu vào đời sống tự nhiên có tính nguyên thủy. Một đứa trẻ sinh ra trong ống nghiệm. Cha mẹ có quyền lựa chọn phôi tốt, phôi xấu, lựa chọn giới tính khi sinh. Chỉ vài năm đô thị hóa nông thôn đã khiến ta không nhận ra ngôi làng hàng trăm năm tuổi.
TS. Hồ Minh Sơn chia sẻ thêm các hệ thống AI có những lỗ hổng và điểm yếu cố hữu. Các hệ thống AI thường phức tạp, chúng dễ gặp phải nhiều vấn đề có thể hạn chế khả năng hoạt động của hệ thống một cách nhất quán và chính xác, giảm tin cậy hơn trong các tình huống động, thực tế. Những yếu tố này có thể vô tình được đưa vào trong quá trình đào tạo, chẳng hạn như thành kiến hoặc vận hành kém. Đồng thời, một trong những rủi ro nổi bật là độ an toàn và bảo mật. Do vậy, các hệ thống AI phải được bảo vệ khỏi những rủi ro (bao gồm tấn công mạng) có thể gây hại cũng như không được sử dụng mô hình AI làm cửa sau hoặc để cung cấp thông tin có hại, không phù hợp, nguy hiểm…
Theo tìm hiểu của Viện Nghiên cứu Thị trường – Truyền thông Quốc tế (IMRIC) phối hợp Viện Nghiên cứu Chính sách pháp luật&Kinh tế hội nhập (IRLIE) cho thấy có ba rủi ro :Tính tin cậy – Nếu không được đào tạo hoặc giám sát đúng cách, AI có thể không học hỏi nhất quán từ con người và các hệ thống khác, dẫn đến kết quả đầu ra không thể đoán trước hoặc không đáng tin cậy. Điều này đặc biệt quan trọng để đảm bảo hạn chế tối đa việc hệ thống AI gây ra những hậu quả tai hại khi áp dụng thực tế; Tính minh bạch, công bằng và trách nhiệm giải trình. Thực tế, các ứng dụng AI có thể học và phát triển theo thời gian với nhiều cơ chế ra quyết định có xu hướng khó kiểm soát. Vì vậy, nếu không có các biện pháp minh bạch, người tham gia có thể không biết hoặc có thông tin sai lệch về cách hệ thống AI sử dụng dữ liệu của họ và quy trình ra quyết định của các hệ thống này có thể vẫn không rõ ràng. Mặt khác, nếu không có hoạt động kiểm tra nội bộ và bên ngoài thích hợp, các ứng dụng AI có thể thể hiện sự thiên vị, dẫn đến kết quả không công bằng cho một số người tham gia nhất định; Kiểm toán, trong trường hợp không có chính sách, quy trình và biện pháp kiểm soát rõ ràng, có thể không rõ ai chịu trách nhiệm về hành động và kết quả của hệ thống AI.
Cũng theo TS. Hồ Minh Sơn cho rằng, những tiến bộ nhanh chóng của công nghệ AI, sự gia tăng tài nguyên tính toán có thể truy cập và sự sẵn có rộng rãi của các công cụ AI nguồn mở và công cộng đã hạ thấp rào cản gia nhập đối với các tác nhân xấu, dẫn đến các mối đe dọa do AI kích hoạt phức tạp hơn, dai dẳng hơn và có khả năng gây thiệt hại nhiều hơn. Cụ thể, mối đe doạ đầu tiên là gian lận, tống tiền trong lĩnh vực tài chính. Các cuộc tấn công tài chính có thể được tạo điều kiện thuận lợi thông qua các hành vi giả mạo do AI phát triển hoặc được kích hoạt thông qua AI để tự động hóa và tối ưu hóa các hoạt động như giao dịch gian lận và triển khai các phần mềm gây hại. Có thể bị đánh cắp và thay đổi dữ liệu. Các cuộc tấn công hỗ trợ AI có thể xác định, ưu tiên và lọc dữ liệu riêng tư, phân loại hoặc cá nhân từ cơ sở dữ liệu an toàn, thường bỏ qua các biện pháp bảo mật truyền thống để đạt được mục tiêu đánh cắp dữ liệu. Ngoài ra, dễ gây ảnh hưởng xã hội/chính trị (gián điệp, chiến tranh mạng). AI có thể được vũ khí hóa để gây rối loạn xã hội hoặc chính trị bằng cách tự động hóa việc truyền bá thông tin sai lệch, thao túng dư luận hoặc thậm chí thay đổi kết quả bầu cử. Bên cạnh đó, dễ gây thiệt hại danh tiếng, AI có thể được sử dụng để mạo danh quan chức, vô hiệu hóa hệ thống hoặc rò rỉ thông tin nhạy cảm, làm suy yếu lòng tin của công chúng, thiết hại danh tiếng.
Trần Danh – Kiên Cường/Tạp chí DN và TTVN số T10