Các biểu tượng ứng dụng chatbot AI trên màn hình điện thoại thông minh
Máy Tính

Lỗ Hổng Tiềm Ẩn Trong ChatGPT Có Thể Gây Tấn Công DDoS: Cảnh Báo Từ Chuyên Gia

Khi thế giới ngày càng làm quen với các trợ lý AI, chúng ta đang khám phá vô vàn điều thú vị mà chúng có thể làm, dù là tích cực hay tiêu cực. Một ví dụ tiêu biểu cho mặt trái là một cuộc tấn công lý thuyết có thể buộc ChatGPT thực hiện tấn công từ chối dịch vụ phân tán (DDoS) vào một trang web được chọn, mặc dù đây chưa phải là mối đe dọa “thực sự” tại thời điểm hiện tại.

ChatGPT Vô Tình Trở Thành Công Cụ DDoS Do Hạn Chế Xử Lý Liên Kết

Như được báo cáo bởi Silicon Angle, nhà nghiên cứu Benjamin Flesch đã phát hiện ra rằng ChatGPT không giới hạn số lượng liên kết mà nó truy cập khi tạo phản hồi. Không chỉ vậy, dịch vụ này cũng không kiểm tra xem các URL mà nó truy cập có bị trùng lặp với các trang web đã kiểm tra trước đó hay không. Kết quả là một cuộc tấn công lý thuyết, nơi một kẻ xấu có thể khiến ChatGPT kết nối đến cùng một trang web hàng nghìn lần chỉ trong một truy vấn:

“Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng nghìn siêu liên kết trong một yêu cầu duy nhất, kẻ tấn công có thể khiến máy chủ OpenAI tạo ra một lượng lớn các yêu cầu HTTP đến trang web của nạn nhân. Các kết nối đồng thời này có thể làm căng thẳng hoặc thậm chí vô hiệu hóa hạ tầng của trang web mục tiêu, thực hiện một cuộc tấn công DDoS hiệu quả.”

Benjamin Flesch tin rằng lỗi này xuất phát từ “thực hành lập trình kém” và nếu OpenAI thêm một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không còn tiềm năng thực hiện một cuộc tấn công DDoS “vô tình” vào các máy chủ.

Các biểu tượng ứng dụng chatbot AI trên màn hình điện thoại thông minhCác biểu tượng ứng dụng chatbot AI trên màn hình điện thoại thông minh

Lỗ Hổng Bảo Mật AI Và Nguy Cơ Tài Chính Đối Với Người Dùng

Elad Schulman, người sáng lập và giám đốc điều hành của công ty bảo mật AI tạo sinh Lasso Security Inc., đã đồng ý với kết luận của Benjamin Flesch đồng thời bổ sung thêm một kịch bản khai thác tiềm năng khác cho các cuộc tấn công này. Elad tin rằng nếu một hacker quản lý để xâm nhập vào tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu hết ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày,” gây ra thiệt hại tài chính nếu không có các biện pháp bảo vệ.

Hy vọng rằng, khi AI phát triển, các công ty sẽ bổ sung các hạn chế để ngăn chặn kẻ xấu lạm dụng dịch vụ của họ. Thực tế, đã có rất nhiều cách mà tin tặc sử dụng AI tạo sinh trong các cuộc tấn công của mình, và đã có sự gia tăng đáng báo động trong các vụ lừa đảo qua cuộc gọi video bằng AI khi công nghệ này cải thiện về chất lượng.

Kết luận: Lỗ hổng tiềm ẩn trong ChatGPT nêu bật tầm quan trọng của việc không ngừng tăng cường bảo mật và thiết lập các giới hạn rõ ràng cho hệ thống AI. thegioicongnghe.net sẽ tiếp tục cập nhật những thông tin mới nhất về bảo mật AI và các xu hướng công nghệ. Bạn nghĩ sao về nguy cơ này? Hãy để lại bình luận và thảo luận cùng chúng tôi!

Related posts

Đừng Bỏ Lỡ: 6 Tiện Ích Miễn Phí Cải Thiện Hoàn Toàn File Explorer Windows

Administrator

Tại sao bạn không nên cài Tiny11: Những rủi ro tiềm ẩn cần biết

Administrator

Tại sao Btrfs là lựa chọn tốt nhất cho NAS gia đình của tôi

Administrator

Leave a Comment