17.3 C
Munich
Saturday, September 19, 2020

Cảnh sát không tham khảo ý kiến ​​công chúng về các công nghệ mới

Must read

Nỗ lực cấp cơ sở để chống lại thông tin sai lệch trong đại dịch

Trong thời kỳ đỉnh điểm của đại dịch COVID-19 chết người, với thông tin sai lệch tràn ngập khắp mọi phương tiện truyền thông,...

Ngân hàng Canada có thể giữ lãi suất thấp cho đến năm 2023, các chuyên gia nói

những hình ảnh đẹpTiền giấy Canada được nhìn thấy ở đây trong hình ảnh này. Thống...

Volocopter bắt đầu bán trước cho các chuyến bay taxi hàng không đầu tiên – với thời gian chờ 2-3 năm – TechCrunch

Nếu câu thần chú về công nghệ có khuôn mặt buồn bã của bạn là “chúng tôi đã được hứa hẹn với những chiếc...

Theo một chiến dịch tự do thông tin (foI), lực lượng cảnh sát ở Anh đang không tham gia đầy đủ với công chúng về việc sử dụng trí tuệ nhân tạo (AI) ngày càng tăng của họ, chỉ với một lực lượng tham vấn về việc sử dụng công nghệ của họ.

Được tiến hành bởi Hiệp hội Nghệ thuật, Sản xuất và Thương mại Hoàng gia (RSA), những phát hiện của chiến dịch đã được công bố trong một báo cáo vào ngày 11 tháng 5, trong đó xem xét cách các lực lượng cảnh sát giao tiếp với công chúng về việc sử dụng AI và hệ thống quyết định tự động của họ (QUẢNG CÁO).

Một số hệ thống cảnh sát sử dụng các công nghệ này, bao gồm cả nhận dạng khuôn mặt sống và hồi cứu, ứng dụng kiểm soát dự đoán (theo đó dữ liệu được sử dụng để xác định vị trí hoặc cá nhân có nguy cơ hoạt động tội phạm cao hơn) và các công cụ đánh giá vụ án (dựa trên thuật toán đánh giá các trường hợp dựa trên chúng được cho là “khả năng thanh toán”).

Báo cáo ghi nhận một cách dễ thấy và liên quan đến việc thiếu sự tham gia của cộng đồng xung quanh AI và ADS, sự vắng mặt của đó sẽ phục vụ công chúng xa hơn với các quyết định sử dụng các công nghệ lạ lẫm này.

Bên cạnh đó, cho phép người dùng cuối của các dịch vụ này nói lên mối quan tâm của họ, sự tham gia của công chúng là một quá trình giáo dục cho cả hai bên và một sự thừa nhận cần thiết rằng các vấn đề không chỉ là hoạt động trong tự nhiên.

Các công nghệ này và vô số công dụng của chúng là xa lạ với phần lớn công chúng – năm 2018, nghiên cứu của RSA cho thấy chỉ 9% công chúng biết rằng AI đang được sử dụng trong tư pháp hình sự.

Chính sách đồng ý?

Trong số 43 lực lượng cảnh sát ở Anh và xứ Wales, chỉ có 7 người xác nhận họ đang sử dụng hoặc thử nghiệm các công nghệ đang được đề cập, chỉ có một – Cảnh sát Nam Wales – xác nhận rằng họ đã tham khảo ý kiến ​​của công chúng về việc sử dụng AI hoặc ADS.

Mặc dù Sở cảnh sát Metropolitan (MPS) sau đó đã trả lời vào giữa tháng 1 rằng họ không sử dụng các công nghệ này cho các quyết định kiểm soát vào thời điểm đó, nhưng việc triển khai nhận diện khuôn mặt của nó đã được công bố một tuần sau đó, đưa tổng số lực lượng cảnh sát sử dụng AI hoặc ADS đến tám.

Trong một tuyên bố với các tác giả báo cáo, MPS cho rằng đã có kế hoạch được thực hiện cho tham vấn cộng đồng, mặc dù không có bằng chứng nào về điều này có thể được cung cấp để đáp ứng yêu cầu tiếp theo của foI.

Năm lực lượng (Northamptonshire, North Yorkshire, Nottinghamshire, Sussex và Warwickshire) không bao giờ trả lời các yêu cầu cung cấp thông tin, trong khi 31 lực lượng khác trả lời rằng họ không sử dụng AI hoặc ADS cho các quyết định của chính phủ, trái với tuyên bố công khai của Bộ Nội vụ.

Chúng tôi lo ngại bởi sự không sẵn lòng của các lực lượng để chi tiết hóa việc sử dụng nhận dạng khuôn mặt hồi cứu của họ thông qua sự tự do của quá trình thông tin. Đây là một vấn đề của hồ sơ công cộng – Home Office đã lưu ý rằng tất cả các lực lượng cảnh sát sử dụng nhận dạng khuôn mặt hồi cứu gần đây là tháng 9 năm 2019, Nói rằng báo cáo.

Hai mục này kết hợp với nhau – nếu không phải là một nền văn hóa yên tĩnh – sau đó là sự thiếu hiểu biết của các cơ quan thông tin cảnh sát về những gì nhận dạng khuôn mặt – ví dụ, họ có thể đã cho rằng sử dụng ‘nhận dạng khuôn mặt chỉ liên quan đến [live facial recognition].

Nó nói thêm rằng không ai trong số bốn lực lượng được xác định là đang triển khai hoặc có kế hoạch triển khai các hệ thống kiểm soát dự đoán xác nhận rằng họ đã tham khảo ý kiến ​​với công chúng, với một văn phòng thông tin nói với các tác giả rằng đầu vào công cộng là không cần thiết vì hệ thống theo dõi các xu hướng thay vì cá nhân.

Tuy nhiên, vào đầu năm 2019, nhóm chiến dịch Liberty đã xác định 14 lực lượng đang sử dụng hoặc lập kế hoạch sử dụng các ứng dụng kiểm soát dự đoán.

Chúng tôi nghi ngờ, thay đổi chiến lược gần đây, một số người sử dụng các công nghệ này có thể đã không phản hồi với thông tin về các chương trình của họ. Cho dù sự khác biệt về kết quả này cho thấy chính sách dự đoán đang suy yếu dần hay là do các lực lượng đang thay đổi cách họ báo cáo về công nghệ có vấn đề tiềm tàng này, rất khó để xác định, báo cáo cho biết.

Họ nói thêm rằng các tác giả, những người bắt đầu thực hiện các yêu cầu của foI vào tháng 11 năm 2019, đã gặp khó khăn đáng kể trong việc nhận phản hồi từ một số lực lượng, và thấy rất khó khăn trong việc lập bản đồ các nỗ lực giám sát do an ninh quốc gia của Pháp miễn giảm sử dụng bởi các cơ quan chức năng.

Đây không phải là giới hạn của cảnh sát – thay vào đó, đây là một ví dụ về việc chính phủ thường không thích ứng với sự phát triển của các công nghệ mới và triệt để. Một chủ đề nhất quán trong cuộc điều tra này là sự không nhất quán và ít ỏi của thông tin được cung cấp bởi các lực lượng cảnh sát liên quan đến cách họ đang sử dụng AI, nó nói.

Cắt giảm chi phí và góc

Một trong những tác giả của mối quan tâm chính là các công nghệ AI đang được sử dụng một phương tiện để tăng hiệu quả, thay vì chất lượng, chính sách, cũng như cắt giảm chi phí, được trích dẫn là lý do trực tiếp để phát triển hệ thống, theo một người trả lời.

Điều đáng lo ngại ở đây là các hệ thống trí tuệ nhân tạo cho phép tiết kiệm chi phí, làm giảm tính khả dụng của các lợi ích ít có thể đo lường được của việc trị an, chẳng hạn như mối quan hệ và xây dựng cộng đồng. Ngoài ra còn có một mối nguy hiểm là hiệu quả đạt được có thể gây hiểu lầm hoặc có thể tạo ra những hậu quả không lường trước được, nó nói.

Sự thiên vị về chủng tộc và giới tính có thể bị làm trầm trọng thêm bởi các công nghệ vì chúng dựa trên dữ liệu lịch sử và chúng tôi sợ rằng sự thiếu minh bạch có thể làm suy yếu nguyên tắc trị an bằng sự đồng ý.

Một báo cáo tháng 2 năm 2020 bởi an ninh nghĩ rằng Viện Dịch vụ Hoàng gia (Rusi), đã kêu gọi hướng dẫn quốc gia về việc sử dụng thuật toán cảnh sát, vì vấn đề cấp bách, đã nói chi tiết về việc sử dụng các công nghệ sử dụng dữ liệu này đã bùng nổ như thế nào trong thời gian gần đây năm

Nó giải thích rằng một lý do chính là các biện pháp thắt lưng buộc bụng đang diễn ra ở Anh, được mô tả bởi mọi sĩ quan cảnh sát được phỏng vấn cho báo cáo là động lực chính của việc phát triển các khả năng dữ liệu mới.

Như đã thảo luận trong một báo cáo gần đây của Đại học Cardiff, những phát triển này là một phần của xu hướng rộng lớn hơn trong khu vực công của Vương quốc Anh về việc sử dụng thuật toán và ‘chấm điểm dữ liệu’ để đưa ra quyết định và phân bổ nguồn lực trong thời đại khắc khổ nói.

Mặc dù báo cáo RSA đồng ý rằng cần phải có hướng dẫn rõ ràng về việc sử dụng các công nghệ này, nhưng nó nói thêm rằng chỉ riêng hướng dẫn là không đủ, và cần có khung văn hóa mới để thay đổi thái độ cố thủ loại trừ công chúng ra quyết định liên quan đến triển khai công nghệ cảnh sát.

Áp dụng các công nghệ mới mà không có biện pháp bảo vệ văn hóa đầy đủ – đặc biệt là xung quanh sự cân nhắc và minh bạch – có nguy cơ gây ra các vấn đề đáng kể cho tương lai, xung quanh cả sự gắn kết cộng đồng nhưng cũng là sự tiếp thu công nghệ thực sự đổi mới.

Các phương pháp có chủ ý có thể cung cấp một cầu nối từ các mưu mô của chính sách dự đoán và nhận diện khuôn mặt đến người dùng cuối bị ảnh hưởng bởi quyết định của họ.

Chúng tôi quan tâm đến việc khám phá làm thế nào các phương pháp có chủ ý có thể được áp dụng hơn nữa để đối phó với thâm hụt trong cam kết được xác định trong báo cáo này. Chúng tôi lưu ý rằng tham gia là một thuật ngữ rộng được thỏa mãn tốt nhất khi các nhóm đa ngành, đa ngành kết hợp với nhau và thách thức các vấn đề xã hội, triết học và thực tiễn phức tạp xung quanh các công nghệ này.

- Advertisement -

More articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -

Latest article

Nỗ lực cấp cơ sở để chống lại thông tin sai lệch trong đại dịch

Trong thời kỳ đỉnh điểm của đại dịch COVID-19 chết người, với thông tin sai lệch tràn ngập khắp mọi phương tiện truyền thông,...

Ngân hàng Canada có thể giữ lãi suất thấp cho đến năm 2023, các chuyên gia nói

những hình ảnh đẹpTiền giấy Canada được nhìn thấy ở đây trong hình ảnh này. Thống...

Volocopter bắt đầu bán trước cho các chuyến bay taxi hàng không đầu tiên – với thời gian chờ 2-3 năm – TechCrunch

Nếu câu thần chú về công nghệ có khuôn mặt buồn bã của bạn là “chúng tôi đã được hứa hẹn với những chiếc...

Kiểm soát thần kinh 911 Đánh giá: Thuốc bổ sung giảm đau thần kinh

Nerve Control 911 là sản phẩm bổ sung làm dịu thần kinh tiên tiến của PhytAge Labs tận dụng các thành phần tự nhiên...