Đề cập đến ‘mặt tối’ của công cụ trí tuệ nhân tạo ChatGPT, Tiến sĩ Đặng Minh Tuấn cho hay, nhiều tin tặc đã và đang sử dụng ChatGPT để phát triển mã độc, phần mềm lừa đảo.
Cuối năm 2022, sự xuất hiện của một ứng dụng mới có tên gọi ChatGPT do công ty OpenAI (Mỹ) phát triển đã làm giới công nghệ trên toàn thế giới phải quan tâm và nhanh chóng thu hút được số lượng lớn người dùng.
ChatGPT thu thập cơ sở dữ liệu văn bản từ Internet như sách, bài báo, các cuộc hội thoại trực tuyến, có khả năng dự đoán và tạo ra câu trả lời đúng nhất cho câu hỏi của người dùng trong mọi lĩnh vực. ChatGPT còn có thể làm thơ, soạn nhạc, viết thư, thiết kế, thậm chí là sửa lỗi trong lập trình.
Ngoài ra, với ứng dụng ChatGPT, thay vì tìm kiếm thông tin trên Google, người dùng sẽ tương tác trực tiếp như với người thật.
Tuy nhiên, theo các chuyên gia, khi nhiều cá nhân và tổ chức sử dụng ChatGPT thì đó cũng là lúc mọi thứ trở nên phức tạp. Bên cạnh những lợi ích mà ChatGPT mang lại cũng còn nhiều vấn đề đáng lo ngại, đặc biệt là về những thách thức bảo mật mà ChatGPT nói riêng và trí tuệ nhân tạo nói chung đặt ra.
Trao đổi tại tọa đàm trực tuyến chủ đề “Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam” vừa được tạp chí An toàn thông tin (Ban Cơ yếu Chính phủ) tổ chức, Giáo sư, Tiến sĩ Nguyễn Thanh Thủy, nguyên Phó Hiệu trưởng Đại học Công nghệ, Ủy viên Hội đồng Giáo sư nhà nước, Chủ tịch Hội đồng Giáo sư ngành CNTT, Chủ tịch Câu lạc bộ các khoa, viện, trường CNTT-TT Việt Nam (FISU) lưu ý, trí tuệ nhân tạo và ChatGPT là một hệ thống các công cụ để tạo sinh ra các sản phẩm.
Theo thuật ngữ của những người làm CNTT, chương trình thì bằng cấu trúc dữ liệu cộng với giải thuật, ChatGPT bằng mô hình ngôn ngữ lớn với kho dữ liệu “khổng lồ” và công nghệ xử lý chính là GPT. ChatGPT của OpenAI là sự kết hợp nhiều công nghệ của trí tuệ nhân tạo, trong đó, sử dụng công nghệ chính là deep learning trên kho dữ liệu cực lớn. Big Data này chứa đến 300 tỷ từ, 175 tỷ tham số.
Vì thế, theo phân tích của Tiến sĩ Nguyễn Thanh Thủy, với ChatGPT, vi phạm tính riêng tư nếu có nó sẽ nằm ở dữ liệu chứ không nằm ở mô hình và cũng không nằm ở phần công nghệ. Các dữ liệu như thông tin cá nhân, sách, báo, tài liệu, thông tin trên trang web… sẽ dẫn đến vi phạm của người dùng là không xin phép mà đã tự ý sử dụng dữ liệu.
Ngoài ra, khi sử dụng ChatGPT nó có thể cắt một phần nội dung trong đó và điều đó sẽ không đảm bảo được tính toàn vẹn.
Một điều nữa liên quan đến vi phạm tính riêng tư thể hiện ở chỗ bản quyền của sách, báo tài liệu, dữ liệu cá nhân của người dùng. “Mặt khác, việc không công khai, không minh bạch trong cơ chế sử dụng, phát tán, đưa dữ liệu thông tin lên mạng, không trả phí, sử dụng dữ liệu của người khác miễn phí và sau đó lại tạo ra sản phẩm có khả năng thu phí cũng là một điểm vi phạm tính riêng tư của ChatGPT”, Tiến sĩ Nguyễn Thanh Thủy nêu quan điểm.
Đề cập đến những thách thức bảo mật từ việc sử dụng ChatGPT, Tiến sĩ Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC, Trưởng phòng lab Blockchain của Học viện Công nghệ Bưu chính Viễn thông (PTIT), Phó Chủ tịch Câu lạc bộ Fintech của Hiệp hội Ngân hàng Việt Nam nhận định, bên cạnh những mặt tích cực, ChatGPT cũng đưa đến nhiều nguy cơ và một số nội dung thông tin độc hại mang tính chất tiêu cực.
Cụ thể như, việc sử dụng ChatGPT có thể gây lộ lọt thông tin cá nhân. “Tội phạm mạng cũng có thể khai thác, lợi dụng ChatGPT làm phương tiện để tạo ra những nội dung lừa đảo, hoặc có thể khai thác thông tin để chế tạo ra những sản phẩm độc hại như vũ khí. Cùng với đó, nhiều tin tặc còn sử dụng ChatGPT để phát triển mã độc, những phần mềm lừa đảo. Đây là một số mặt trái của ChatGPT”, Tiến sĩ Đặng Minh Tuấn nhấn mạnh.
Đưa ra lời khuyên với người dùng để bảo vệ mình trước những rủi ro mất an toàn toàn thông tin từ ChatGPT, Tiến sĩ Đặng Minh Tuấn chia sẻ, tương tự như khi tham gia giao thông ngoài xã hội cần tìm hiểu kỹ luật giao thông và các khả năng rủi ro, người dùng khi tham gia mạng xã hội cũng cần tự trau dồi, nâng cao kỹ năng, hiểu biết của bản thân về an toàn thông tin mạng nhằm tự bảo vệ mình khỏi các cuộc tấn công. Chẳng hạn như, để phòng tránh bị lừa đảo trực tuyến, người dùng cần nâng cao cảnh giác, tương tác để kiểm tra lại tính chính xác của thông tin.
Còn theo Tiến sĩ Nguyễn Thanh Thủy, để giảm thiểu các rủi ro mất an toàn thông tin do ChatGPT nói riêng và công nghệ trí tuệ nhân tạo đưa lại, cần một giải pháp tổng thể, không chỉ gồm những yếu tố công nghệ mà còn cần thêm các yếu tố quy trình và con người. Trong đó, con người thì cần phải thông minh và quy trình thì phải chặt chẽ.
“Tôi cũng cung cấp thêm thông tin, đầu tiên là về vấn đề tạo ra trí tuệ nhân tạo có trách nhiệm, nó nằm chủ yếu ở phần dữ liệu, phương thức thu thập dữ liệu, nguồn dữ liệu và chất lượng để phục vụ cho việc huấn luyện trí tuệ nhân tạo. Thứ hai, tạo ra đạo đức sử dụng các sản phẩm trí tuệ nhân tạo, trong đó có cả dữ liệu và sử dụng hệ thống. Thứ ba, dần dần con người đã đưa ra các công cụ như zero GPT để tạo ra “liêm chính”. Học sinh, sinh viên có thể sử dụng ChatGPT trong học tập nhưng cần phải trung thực, sử dụng sản phẩm đấy chỉ để tham khảo”, Tiến sĩ Nguyễn Thanh Thủy nêu quan điểm.
Mã độc dịch vụ, công cụ nguy hiểm mới của giới tội phạm mạng
Ngày ‘Thứ Hai đen tối’ ở Đức: Mã độc làm gián đoạn dịch vụ công ở 70 địa phương
Mã độc tấn công quy mô lớn hệ thống viễn thông Mỹ Latinh