Trong một thử nghiệm mới đây, công cụ trí tuệ nhân tạo (AI) được thiết kế để đơn giản hóa công việc giấy tờ của cảnh sát cuối cùng lại biến mọi thứ trở nên phức tạp hơn nhiều. Tại Sở cảnh sát thành phố Heber, Utah, hệ thống AI đã tạo ra một báo cáo, biến một cuộc kiểm tra giao thông thông thường thành câu chuyện cổ tích hoặc ác mộng kinh dị, tùy thuộc vào cách bạn nhìn nhận. Trong khi giúp cảnh sát tự động tạo báo cáo từ camera đeo trên người, một công cụ AI cho biết một sĩ quan cảnh sát đã biến thành ếch (ảnh 1). Sự cố này không chỉ gây ra nhiều chỉ trích mà còn đặt ra câu hỏi về việc liệu lợi ích có đáng để đánh đổi với rủi ro hay không. Theo trung sĩ Keel, công cụ đang tiết kiệm cho ông "sáu đến tám giờ mỗi tuần" và "rất thân thiện với người dùng", dù ông "không phải người am hiểu công nghệ". Tuy nhiên, những sai sót nghiêm trọng như vụ "ếch" đặt ra câu hỏi liệu lợi ích có đáng để đánh đổi với rủi ro hay không. Sự cố này khiến các chuyên gia yêu cầu phải kiểm tra lại những báo cáo trước đây để xem có sai sót hay không (ảnh 2). Giáo sư luật Andrew Ferguson của Đại học American lo ngại rằng "sự tự động hóa và tính dễ dàng của công nghệ sẽ khiến các sĩ quan cảnh sát trở nên ít cẩn thận hơn với văn bản của họ". Điều này đặc biệt nguy hiểm khi báo cáo cảnh sát có thể quyết định vận mệnh của người bị điều tra. Một mối lo ngại lớn hơn là khả năng phần mềm củng cố các thiên kiến về chủng tộc và giới tính đã tồn tại trong thực thi pháp luật (ảnh 3). Các công cụ AI tạo sinh đã được chứng minh là duy trì thiên kiến chống lại phụ nữ và người không da trắng. Aurelius Francisco, đồng sáng lập Foundation for Liberating Minds, cho rằng "việc công nghệ được sử dụng bởi cùng công ty cung cấp súng điện Taser cho cảnh sát đã đủ đáng báo động". Thử nghiệm Code Four của Sở cảnh sát Heber City sẽ kết thúc vào tháng tới (ảnh 4). Các quan chức dự kiến sẽ giữ một số hình thức báo cáo AI, mặc dù chưa quyết định sử dụng hệ thống nào. Có lẽ họ sẽ chọn hệ thống nào không dễ bị lừa đến mức nghĩ rằng con người có thể biến thành ếch. Nhưng với những thiếu sót cơ bản mà AI đã thể hiện, câu hỏi lớn hơn là liệu có nên tin tưởng công nghệ này với những tài liệu quan trọng như báo cáo cảnh sát hay không.
Phần mềm trí tuệ nhân tạo (AI) được thiết kế để đơn giản hóa công việc giấy tờ của cảnh sát cuối cùng lại biến mọi thứ trở nên phức tạp hơn nhiều. Hệ thống AI này, dù có thể tự động hóa quá trình tạo báo cáo từ camera đeo trên người, vẫn gặp phải những sai sót nghiêm trọng. Ví dụ điển hình là sự cố "ếch" tại Sở cảnh sát thành phố Heber, Utah, nơi một sĩ quan cảnh sát đã bị hệ thống AI biến thành ếch (ảnh 1). Sự việc này không chỉ gây ra nhiều chỉ trích mà còn đặt ra câu hỏi về việc liệu lợi ích của công nghệ có đáng để đánh đổi với rủi ro hay không.


Một mối lo ngại lớn hơn là khả năng phần mềm củng cố các thiên kiến về chủng tộc và giới tính đã tồn tại trong thực thi pháp luật (ảnh 3). Các công cụ AI tạo sinh đã được chứng minh là duy trì thiên kiến chống lại phụ nữ và người không da trắng. Aurelius Francisco, đồng sáng lập Foundation for Liberating Minds, cho rằng "việc công nghệ được sử dụng bởi cùng công ty cung cấp súng điện Taser cho cảnh sát đã đủ đáng báo động". Thử nghiệm Code Four của Sở cảnh sát Heber City sẽ kết thúc vào tháng tới (ảnh 4). Các quan chức dự kiến sẽ giữ một số hình thức báo cáo AI, mặc dù chưa quyết định sử dụng hệ thống nào. Có lẽ họ sẽ chọn hệ thống nào không dễ bị lừa đến mức nghĩ rằng con người có thể biến thành ếch.
Tuy nhiên, với những thiếu sót cơ bản mà AI đã thể hiện, câu hỏi lớn hơn là liệu có nên tin tưởng công nghệ này với những tài liệu quan trọng như báo cáo cảnh sát hay không. Sự cố "ếch" chỉ là một trong nhiều vấn đề cần xem xét khi cân nhắc việc sử dụng công nghệ AI trong thực thi pháp luật.
Theo bài viết của XU HƯỚNG 24
Bình luận