0707171758
NGUYỄN THANH VÂN

Tin tặc lợi dụng các công cụ trí tuệ nhân tạo như ChatGPT, nhanh chóng tạo ra mã độc và gây ra nhiều vụ tấn công nguy hiểm hơn trước, theo cảnh báo của FBI.
Trong một cuộc đàm thoại giữa FBI và phóng viên, cơ quan này cho rằng AI đang bị lợi dụng trong hầu hết hoạt động tội phạm trên mạng. Từ những kẻ lừa đảo sử dụng AI để hoàn chỉnh hơn kỹ năng của chúng, đến các nhóm khủng bố muốn AI hướng dẫn cách gây ra các cuộc tấn công hoá học có tác hại to lớn hơn.
Một quan chức cao cấp của FBI nói trên Tom’s Hardware, được Digital Trends dẫn lại, cho biết một khi các công cụ AI được dân chủ hoá và áp dụng nhiều hơn, xu hướng tội phạm lợi dụng công cụ này sẽ gia tăng. Kẻ xấu lợi dụng các công cụ AI, ví dụ tạo giọng nói giả, để lừa người thân và bạn bè của nạn nhân, hoặc lừa đảo người già.
Đây không phải lần đầu các công cụ như ChatGPT bị lợi dụng để tạo mã độc. Vào tháng 2/2023, các nhà nghiên cứu tại công ty bảo mật Checkpoint phát hiện kẻ xấu đã thay đổi API của chatbot, từ đó ra lệnh cho các công cụ này lập trình nên các mã độc một cách dễ dàng, biến bất kỳ ai cũng có thể trở thành hacker.
ChatGPT có thể trở thành một mối đe doạ an ninh mạng?
Tác giả của bài viết trên Digital Trends nhận định rằng quan điểm của FBI khá khác biệt so với một số chuyên gia an ninh mạng mà trang này từng nói chuyện. Tác giả bài viết từng trao đổi với các chuyên gia vào tháng 5/2023, những người này cho rằng các mối đe doạ từ chatbot AI phần lớn bị thổi phồng quá mức. TIn tặc sẽ tìm cách khai thác các vụ rò rỉ dữ liệu truyền thống và có thể tận dụng các mã nguồn mở hơn là khai thác các chatbot AI, theo ý kiến chuyên gia.
Do ý kiến khá trái ngược giữa cơ quan chính phủ và chuyên gia bảo mật như vậy, chúng ta cần có thời gian nữa để xem xét bên nào đúng.
Tại Việt Nam, mình cũng từng tham dự một số buổi hội thảo về an ninh mạng, trong đó có đề cập đến ChatGPT. Đến khoảng đầu năm nay, phía cơ quan nhà nước cũng lo ngại các vấn đề an ninh mạng liên quan đến các công cụ như ChatGPT, trong đó mối quan tâm lớn là khả năng bị lộ dữ liệu nhà nước, bí mật quốc gia nếu như các nhân viên nhập dữ liệu vào ChatGPT để tìm các câu trả lời.
Về phía công ty bảo mật, Kaspersky cho biết các chuyên gia của hãng cũng đã thử dùng ChatGPT để tạo ra một dạng mã độc. Tuy nhiên, thứ nhất, các công cụ như ChatGPT có các quy tắc để không cho phép người dùng lợi dụng chatbot tạo ra mã độc. Thứ hai, đoạn mã độc tạo ra từ ChatGPT cực kì thô sơ, gần như khó tạo ra nguy hại trong thời buổi hiện nay.
Tất nhiên những kiến thức trên mình mới cập nhật đến đầu năm nay thôi, những thứ xảy ra hiện tại mình không nắm chắc.
Anh em thấy các công cụ như ChatGPT có thể tạo ra mối nguy nào thì chia sẻ với nhé.