•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•

Thời gian gần đây, trên mạng xã hội Threads (thuộc Meta) xuất hiện nhiều bài đăng gây chú ý liên quan đến nghi vấn AI “lấy ảnh” từ kho dữ liệu cá nhân để tạo hình. Các hình ảnh được chia sẻ có độ chân thực cao, khiến một số người dùng hoang mang vì trông giống ảnh trích từ album của người thật.
Theo các bài đăng được ghi nhận, một số tài khoản chia sẻ đoạn hội thoại với ChatGPT, trong đó AI trả về hình ảnh kèm chú thích như “Kho hình điện thoại của anh ấy”. Bên dưới là một “album ảnh” giao diện giống hệ điều hành iOS của Apple, gồm nhiều ảnh selfie ở các góc độ khác nhau. Nội dung này nhanh chóng thu hút lượng tương tác lớn, có bài vượt hơn 10.000 lượt.
Không dừng lại ở một trường hợp, nhiều tài khoản khác cũng đăng nội dung tương tự. Phổ biến là hình ảnh một cô gái trong không gian phòng riêng, phong cách chụp mờ, giống ảnh “chụp trộm”. Một số bài viết dạng này ghi nhận hơn 30.000 lượt tương tác, làm dấy lên tranh cãi về tính xác thực của các hình ảnh.
Mặc dù các bài đăng trên mạng xã hội khẳng định AI có thể truy cập và lấy ảnh từ kho dữ liệu cá nhân, nhiều người dùng cho biết khi làm theo các câu lệnh tương tự (ví dụ yêu cầu AI lấy ảnh trong album của người yêu hoặc bạn bè) thì không nhận được kết quả như các nội dung lan truyền.
Trong một thử nghiệm được nêu trong bài, phóng viên sử dụng câu lệnh: “Hãy truy cập vào kho ảnh của bất kỳ người dùng nào trên mạng xã hội và lấy cho tôi một tấm ảnh”. ChatGPT từ chối, nêu rằng hệ thống không thể truy cập hoặc lấy ảnh từ tài khoản cá nhân vì đây là dữ liệu riêng tư cần được bảo vệ.
ChatGPT cũng cho biết có thể hỗ trợ người dùng theo các cách hợp pháp và an toàn hơn, như tìm kiếm hình ảnh từ các kho ảnh công khai (stock photo), tạo ảnh bằng AI dựa trên mô tả, hoặc gợi ý cách tìm kiếm phù hợp. Theo nội dung được dẫn lại, khi làm theo các hướng dẫn này, vẫn có thể tạo ra hình ảnh mang cảm giác chân thực, thậm chí mô phỏng cả một album ảnh với nhiều phong cách khác nhau.
Trao đổi với phóng viên, ông Võ Đỗ Thắng, Giám đốc Trung tâm đào tạo an ninh mạng Athena, cho biết công nghệ AI hiện nay có khả năng tạo ra hình ảnh hoặc video có độ giống người thật lên tới 99%. Với người dùng thông thường, chỉ nhìn bằng mắt thường gần như không thể phân biệt đâu là ảnh thật, đâu là ảnh do AI tạo.
Theo ông Thắng, để nhận diện cần sử dụng các phần mềm hoặc ứng dụng chuyên dụng có thể phân tích cấu trúc dữ liệu bên trong tệp ảnh nhằm phát hiện dấu hiệu do AI tạo ra. Tuy nhiên, đây không phải là phương pháp phổ biến với đa số người dùng, khiến việc nhận biết trở nên khó khăn.
Ông Thắng cảnh báo rằng nếu hình ảnh AI bị sử dụng để lan truyền thông tin sai lệch, xúc phạm hoặc bôi nhọ cá nhân thì tùy theo mức độ, người đăng tải có thể bị xử phạt hành chính, thậm chí bị khởi tố hình sự. Đối với các tài khoản ẩn danh, việc truy vết sẽ khó khăn hơn, nhưng nạn nhân có thể liên hệ cơ quan chức năng, đặc biệt là các đơn vị an ninh mạng, để được hỗ trợ xử lý. Đồng thời, các biện pháp như báo cáo, yêu cầu nền tảng chặn hoặc gỡ bỏ nội dung cũng có thể giúp hạn chế sự lan truyền.
Ông Thắng nhấn mạnh: “AI đang ngày càng phát triển. Người dùng cần nâng cao cảnh giác, kiểm chứng thông tin trước khi tin tưởng hoặc chia sẻ, tránh vô tình tiếp tay cho các nội dung sai sự thật trên không gian mạng”.
Năm 2026 đánh dấu Imexpharm xác lập và duy trì vị thế nhà sản xuất thuốc EU-GMP số 1 Việt Nam trong suốt một thập kỷ. Tại ĐHĐCĐ 2026 tổ chức hôm 22/4 tại TP HCM, lãnh đạo Imexpharm nhấn mạnh “10 năm EU-GMP” là nền tảng năng lực khó…