AI tiếp tục tham gia vào việc phát hiện tội phạm và chống trốn vé tàu

Trong một cuộc thử nghiệm mới đây tại một nhà ga thuộc hệ thống tàu điện ngầm của London - Anh, thị giác máy tính tích hợp AI đã thành công giám sát và phát hiện các loại tội phạm, vũ khí, người ngã trên đường ray cũng như những kẻ trốn vé,...

Những câu hỏi về quyền riêng tư

Trong những năm gần đây, việc sử dụng AI trong không gian công cộng để phát hiện hành vi, chuyển động hoặc danh tính của mọi người đã gia tăng, thường thông qua chiêu bài tiếp cận thành phố thông minh. Vào tháng 7 năm ngoái, các báo cáo tiết lộ rằng một số ga tàu điện ngầm ở Thành phố New York đang sử dụng AI để theo dõi việc trốn vé tàu.

Mới đây nhất, Transport for London (TfL) - đơn vị vận hành mạng lưới xe buýt và tàu điện ngầm của thành phố London (Anh) đã tiến hành một cuộc thử nghiệm từ tháng 10/2022 đến cuối tháng 9/2023, áp dụng 11 thuật toán AI kết hợp hệ thống camera an ninh CCTV để giám sát những hành khách và người đi qua ga tàu điện ngầm Willesden Green ở phía tây bắc thành phố. Đã có hơn 44.000 cảnh báo đã được đưa ra trong quá trình thử nghiệm, trong đó 19.000 cảnh báo được gửi đến nhân viên nhà ga theo thời gian thực.

Việc các hệ thống giám sát tích hợp AI ngày càng phổ biến trong các không gian công cộng đang đặt ra câu hỏi về quyền riêng tư của người dân.

Trong cuộc thử nghiệm tại Willesden Green — một nhà ga có 25.000 khách mỗi ngày, hệ thống AI được thiết lập để phát hiện các sự cố mất an toàn tiềm ẩn và thông báo tới các nhân viên để thực hiện giúp đỡ những người gặp khó khăn. Hệ thống cũng nhắm vào các hành vi tội phạm và gây rối an ninh cũng như việc trốn vé tàu...

Theo đó, các mô hình AI được sử dụng để phát hiện xe lăn, xe đẩy, thuốc lá điện tử, những người tiếp cận các khu vực trái phép hoặc khiến bản thân gặp nguy hiểm khi đến gần mép sân ga.

Tuy nhiên, quá trình thử nghiệm cũng cho thấy AI không thực sự hoàn hảo khi phát cảnh báo một em bé đi cùng cha mẹ qua cửa an ninh là hành vi trốn vé, không thể phân biệt được một chiếc xe đạp gấp và một chiếc xe đạp thông thường.... 

Cuộc thử nghiệm khiến các chuyên gia về quyền riêng tư phải đặt ra nhiều câu hỏi có liên quan. Họ nói rằng không rõ có bao nhiêu người biết về cuộc thử nghiệm, đồng thời cảnh báo những hệ thống giám sát như vậy được mở rộng trong tương lai sẽ khiến cho sự riêng tư của người dân bị thu hẹp.

“Mặc dù thử nghiệm không liên quan đến nhận dạng khuôn mặt, nhưng việc sử dụng AI trong không gian công cộng để xác định hành vi, phân tích ngôn ngữ cơ thể và suy ra các đặc điểm sẽ đặt ra nhiều câu hỏi khoa học, đạo đức, pháp lý và xã hội ” Michael Birtwistle, Phó Giám đốc Viện Nghiên cứu độc lập Ada Lovelace cho biết.

Mandy McGregor, người đứng đầu bộ phận Chính sách và an toàn cộng đồng của TfL cho biết  không có biển báo nào tại nhà ga đề cập đến việc thử nghiệm các công cụ giám sát AI. Đồng thời chia sẻ kế hoạch mở rộng hệ thống giám sát an ninh tích hợp AI sang các nhà ga khác ngay trong năm nay.

Trong tất cả các thử nghiệm, hình ảnh khuôn mặt đều bị làm mờ và dữ liệu được lưu giữ tối đa 14 ngày. Tuy nhiên, sau 6 tháng thử nghiệm, TfL đã quyết định làm mờ hình ảnh khuôn mặt những người bị nghi ngờ trốn vé và lưu giữ dữ liệu đó lâu hơn. Các tài liệu cho biết, ban đầu kế hoạch là để nhân viên phản ứng với các hành vi trốn vé. “Tuy nhiên, do số lượng cảnh báo hàng ngày lớn (có ngày lên tới hơn 300) và độ chính xác cao nên chúng tôi đã định cấu hình hệ thống để tự động xác nhận cảnh báo,” đơn vị này cho biết.

TfL cho biết việc trốn vé tại hệ thống các nhà ga mà đơn vị này phụ trách thiệt hại ước tính tới 130 triệu bảng mỗi năm và đã có 26.000 cảnh báo trốn vé trong quá trình thử nghiệm.

Phần lớn cuộc thử nghiệm nhằm mục đích giúp nhân viên hiểu những gì đang xảy ra tại nhà ga và ứng phó với các sự cố. Hồ sơ cho biết có tới 59 cảnh báo về xe lăn cho phép nhân viên tại nhà ga Willesden Green, nơi không có phương tiện tiếp cận cho xe lăn, “cung cấp sự chăm sóc và hỗ trợ cần thiết”. Trong khi đó, có gần 2.200 cảnh báo cho những người vượt quá vạch an toàn màu vàng, 39 cảnh báo cho những người nghiêng người qua mép đường ray và gần 2.000 cảnh báo cho những người ngồi trên băng ghế trong một thời gian dài.

Madeleine Stone, một nhân viên vận động cấp cao của nhóm Big Brother Watch tập trung vào quyền riêng tư, nói rằng nhiều khách du lịch bằng tàu điện ngầm sẽ “băn khoăn” khi biết rằng chính quyền buộc mọi người phải chịu sự giám sát bởi AI. Stone nói rằng việc sử dụng thuật toán để xác định xem ai đó có “hung hăng” hay không là “thiếu sót sâu sắc” và chỉ ra rằng cơ quan quản lý dữ liệu của Vương quốc Anh đã cảnh báo không nên sử dụng công nghệ phân tích cảm xúc.

Birtwistle, chuyên gia thuộc Viện Nghiên cứu độc lập Ada Lovelace nói: “Những công nghệ này chỉ nên sử dụng khi có sự tin tưởng, đồng ý và hỗ trợ từ công chúng”.

Hệ thống CCTV tích hợp AI sẽ phát hiện và đưa ra cảnh báo tới nhân viên phụ trách về những tình huống có thể phát sinh.

Hệ thống thị giác máy tính – mắt thần của các thành phố thông minh?

Hệ thống thị giác máy tính là công nghệ giám sát, phát hiện các vật thể và con người thông qua hình ảnh và video. Trong quá trình thử nghiệm ở London, các thuật toán được đào tạo để phát hiện các hành vi hoặc chuyển động nhất định. Chúng được kết hợp với hình ảnh từ camera quan sát, thực hiện phân tích hình ảnh sau một phần mười giây. Khi hệ thống phát hiện một trong 11 hành vi hoặc sự kiện được xác định là có vấn đề, nó sẽ đưa ra cảnh báo tới iPad hoặc máy tính của nhân viên trạm. Các tài liệu cho biết nhân viên TfL đã nhận được 19.000 cảnh báo nguy cơ và 25.000 cảnh báo khác được lưu giữ cho mục đích phân tích.

Các danh mục mà hệ thống cố gắng xác định là: sự di chuyển của đám đông, truy cập trái phép, bảo vệ an toàn, hỗ trợ di chuyển, tội phạm và hành vi gây rối, người ngã trên đường ray, người bị thương hoặc có vấn đề về sức khỏe, các mối nguy hiểm như rác hoặc sàn ướt, đồ đạc bị bỏ quên, khách hàng bị mắc kẹt và trốn vé…