Dùng AI để tối ưu công việc – cẩn thận lộ thông tin cá nhân
(DNTH) - Ngày nay, ChatGPT và các công cụ AI khác đang trở thành “trợ lý ảo” đắc lực trong công việc. Nhiều người sử dụng AI để viết báo cáo...

https://www.doanhnhanthuonghieu.com.vn/2025/03/dung-ai-e-toi-uu-cong-viec-can-than-lo.html
(DNTH) - Ngày nay, ChatGPT và các công cụ AI khác đang trở thành “trợ lý ảo” đắc lực trong công việc. Nhiều người sử dụng AI để viết báo cáo, phân tích dữ liệu, lập kế hoạch và thậm chí soạn thảo kế hoạch kinh doanh. Tuy nhiên, bên cạnh những tiện ích đó, việc sử dụng AI một cách bất cẩn cũng tiềm ẩn nhiều nguy cơ.
Chị H.T.T (Hà Nội) thường dùng ChatGPT để viết bài chăm sóc khách hàng và lưu cả danh sách khách hàng trên ứng dụng này. Một thời gian sau, chị nhận được nhiều cuộc gọi từ các bên mà chị chưa từng làm việc trước đây và cho rằng dữ liệu của mình đã bị đánh cắp.
Chị L.Q.N (TP.HCM) thường sử dụng ChatGPT để tối ưu mã lập trình. Một lần, chị vô tình nhập mã quan trọng của công ty vào, và một thời gian sau, chị nhận thấy đoạn mã gần giống vậy xuất hiện trong các câu trả lời của AI. Lúc đó, chị nhận ra mình đã làm rò rỉ thông tin nội bộ.
Thạc sĩ Trần Tuấn Dũng (Trường Đại học Công nghệ Thông tin, Đại học Quốc gia TP.HCM) cho biết: “Con người luôn là mắt xích yếu nhất trong hệ thống bảo mật. Do đó, mỗi người cần trang bị kiến thức cơ bản về an toàn, an ninh trên không gian mạng, nâng cao hiểu biết về các cuộc tấn công đã và đang diễn ra trên không gian mạng”.

Để bảo vệ thông tin cá nhân, dữ liệu quan trọng khi sử dụng ChatGPT và các công cụ AI tương tự, người dùng cần tuân thủ một số nguyên tắc cơ bản. Trước hết, không nên nhập thông tin nhạy cảm như tài khoản ngân hàng, mật khẩu, dữ liệu khách hàng hay tài liệu nội bộ vào các công cụ AI. Đồng thời, nên sử dụng phiên bản có cơ chế bảo mật tốt hơn và đọc kỹ chính sách bảo mật trước khi nhập bất kỳ thông tin nào.
Lời Cảnh Báo được phát sóng vào lúc 19h50 thứ Hai và thứ Tư hàng tuần trên kênh THVL1. Chương trình do Đài Truyền hình Vĩnh Long phối hợp cùng Jet Studio thực hiện.
MT