Để phát hiện và xóa bỏ các sự lây lan của các tài liệu lạm dụng tình dục trẻ em (CSAM), Google vừa mới phát hành một công cụ trí tuệ nhân tạo (AI) miễn phí giúp thanh lọc các nội dung nguy hại này.
Công cụ miễn phí này sử dụng tính năng nhận dạng hình ảnh để giúp người kiểm duyệt phát hiện và loại bỏ tài liệu CSAM nhanh hơn, qua đó giảm sự tiếp xúc của người kiểm duyệt đối với những nội dung dễ gây tổn thương về mặt tinh thần.
Động thái này được đưa ra khi các quan chức Anh kêu gọi Google và hãng công nghệ khổng lồ ở Thung lũng Silicon khác hành động chống lại nạn lạm dụng tình dục trẻ em trên mạng Internet.
Một số hệ thống kiểm duyệt nội dung hiện nay có thể xác định hình ảnh và video lạm dụng tình dục trẻ em bằng cách quét các nội dung này thông qua cơ sở dữ liệu nội dung đã bị gắn cờ.
Đó là một công cụ hữu ích để phát hiện nội dung đã được đăng lại trên Internet, nhưng nó không làm giảm quá trình tìm kiếm hình ảnh hoặc video mới.
Thay vào đó, người kiểm duyệt phải tự mình xem xét nội dung.
Công nghệ mới của Google nhằm giải quyết vấn đề này, bằng cách ‘cho phép các nhà cung cấp dịch vụ, các tổ chức phi chính phủ và các công ty công nghệ khác xem xét nội dung này trên quy mô lớn.”
Hệ thống kiểm duyệt của Google sử dụng mạng thần kinh sâu để phân loại hình ảnh thông qua khối lượng nội dung và ưu tiên một số bài đăng nhất định để xem xét.
Thời gian qua, Google đã hợp tác với một số đối tác trong việc ngăn chặn vấn nạn lạm dụng tình dục trẻ em trên mạng, trong đó có tổ chức từ thiện Quỹ Theo dõi Internet có trụ sở tại Anh, Liên minh Công nghệ và Liên minh WePROTECT toàn cầu, cùng một số tổ chức phi chính phủ khác./.