Các bước để được phát triển AI một cách công bằng và có đạo đức

Rất ít luật pháp hiện hành đề cập đến việc sử dụng trí tuệ nhân tạo. Điều này đã khiến các công ty chịu phải đối mặt với một áp lực lớn trong việc trấn an công chúng rằng các ứng dụng AI của mình là có đạo đức và công bằng.

 

Khi trí tuệ nhân tạo trở nên phổ biến hơn trong doanh nghiệp, nhiều nhà lãnh đạo CNTT lo ngại về ý nghĩa đạo đức của AI. Trên thực tế, báo cáo Vanson Bourne năm 2019 do SnapLogic tài trợ cho thấy 94% (trong số 1.000 người ra quyết định các vấn đề liên quan đến CNTT của Hoa Kỳ) tin rằng mọi người nên chú ý hơn đến trách nhiệm và đạo đức doanh nghiệp trong phát triển AI.

Không phải nhìn đâu xa, một số công ty công nghệ nổi tiếng đã bị vướng vào các vụ scandal liên quan đến việc AI họ tạo ra không hoạt động như mong muốn. Ví dụ, vào năm 2015, Google đã bị chỉ trích khi người dùng phàn nàn rằng phần mềm nhận dạng hình ảnh của công ty đang gắn thẻ khuôn mặt người da đen là “khỉ đột”. Mặc dù gã khổng lồ công nghệ hứa sẽ khắc phục vấn đề nhưng ba năm sau, “cách khắc phục” duy nhất mà chúng ta thấy là họ loại bỏ khả năng nhận ra khỉ đột của AI. Và danh tiếng của Microsoft đã bị ảnh hưởng khi mà robot chat tự động Twitter dựa trên AI của họ có hành vi phân biệt chủng tộc chỉ sau vài giờ ra mắt.

Vào ngày 14/5 vừa rồi, San Francisco đã trở thành thành phố lớn đầu tiên của Hoa Kỳ cấm hầu hết việc sử dụng phần mềm nhận dạng khuôn mặt trong các cơ quan thành phố một phần vì sự thiên vị tiềm ẩn trong công nghệ. Một số thành phố nhỏ hơn đã thông qua hoặc đang xem xét các lệnh cấm tương tự.

Mặc dù những sai lầm về AI này đã được báo cáo rất rộng rãi nhưng nhiều người lo lắng rằng những hành vi vi phạm có tính lan tỏa – và những sai lầm của AI có thể xảy ra ở đâu đó khác nữa mà người dân không hề biết. Khách hàng có thể không bao giờ biết nếu họ bị từ chối cho vay hoặc phải đối mặt với nghi ngờ gian lận vì những thuật toán AI không đáng tin cậy.

Các tổ chức như Viện AI Now tại Đại học New York và thậm chí cả Công ước Southern Baptist cũng đã kêu gọi các công ty sử dụng AI một cách minh bạch hơn và tuân thủ một số nguyên tắc đạo đức. Đáp lại, một số doanh nghiệp, bao gồm cả Google và Microsoft, đã công bố các hướng dẫn nội bộ của họ về việc sử dụng AI.

Tuy nhiên, nhiều người cảm thấy rằng điều này là chưa đủ. Thay vào đó, họ muốn các cơ quan chính phủ tham gia và ban hành quy định. Và không chỉ người tiêu dùng cảm thấy như vậy. Trong nghiên cứu của Vanson Bourne, 87% các nhà lãnh đạo CNTT cho rằng việc phát triển AI nên được điều chỉnh bởi luật.

Một phần lý do cho mong muốn đó là vì nếu không có luật pháp, các doanh nghiệp không có cách nào để biết liệu họ đã làm đủ để đảm bảo việc sử dụng AI của mình là hợp pháp hay không. Quy định có thể cung cấp cho họ một công cụ để trấn an khách hàng về việc sử dụng trí tuệ nhân tạo của họ, bởi vì lúc đó họ có thể nói rằng họ đã tuân thủ tất cả các luật có liên quan. Không có những luật lệ đó, việc đạt được – và giữ – niềm tin của khách hàng trở nên khó khăn hơn.

Nhưng ngay cả khi không có quy định bắt buộc, doanh nghiệp có thể – và nên – thực hiện các bước để đảm bảo việc sử dụng AI của mình là hợp pháp. Chín cách dưới đây sẽ giúp các công ty cải thiện lập trường đạo đức của mình khi nói đến AI.

 

Tuân thủ quy định

Tối thiểu, các tổ chức cần đảm bảo ứng dụng AI của mình tuân thủ những quy định về quyền riêng tư dữ liệu. Hầu hết các phần mềm AI và đặc biệt là máy học, phụ thuộc vào một số lượng lớn dữ liệu mà các doanh nghiệp có trách nhiệm đảm bảo việc xử lý những dữ liệu đó tuân thủ luật pháp hiện hành. Tại Hoa Kỳ, các doanh nghiệp bắt buộc phải tuân thủ Đạo luật Trách nhiệm giải trình và cung cấp thông tin Bảo hiểm Y tế (HIPAA), Đạo luật Bảo vệ Quyền riêng tư Trực tuyến của Trẻ em (COPPA) và các luật liên bang hoặc tiểu bang cụ thể khác.

Dù là ở đâu, nếu các tổ chức có bất kỳ khách hàng hoặc nhân viên châu Âu nào, họ cũng phải tuân thủ Quy định bảo vệ dữ liệu chung (GDPR). Quy định có phạm vi sâu rộng này yêu cầu các tổ chức lưu trữ dữ liệu trong thời gian ngắn nhất có thể và họ phải cung cấp cho các cá nhân quyền và cách thức để xem và xóa dữ liệu cá nhân của mình. Đặc biết là về AI, GDPR cũng nói rằng “các cá nhân không phải tuân theo một quyết định chỉ dựa trên xử lý tự động (như thuật toán) và đó là ràng buộc về mặt pháp lý hoặc ảnh hưởng đáng kể đến họ.”

 

Tuân thủ các thực tiễn tốt nhất về khoa học dữ liệu

Bên cạnh việc tuân thủ các quy định của chính phủ, các tổ chức cũng nên thực hiện các thực tiễn khoa học với yếu tố chất lượng và uy tín đặt ở trung tâm. Trong báo cáo “Đạo đức của AI: Cách tránh thiên vị và phân biệt đối xử có hại” – Forrester khuyến nghị: “Để ngăn chặn sự thiên vị của thuật toán trong các mô hình, bạn cần tuân thủ những nguyên tắc cơ bản của khai thác dữ liệu bằng cách đảm bảo dữ liệu được đào tạo của bạn là đại diện cho tổng thể mẫu bạn dự kiện sẽ sử dụng mô hình.”

Các chuyên gia khác khuyên các nhà khoa học dữ liệu liên tục kiểm tra và xác nhận các mô hình của mình và cách họ đang sử dụng để theo dõi dòng dữ liệu. Mặc dù rất ít giám đốc điều hành kinh doanh hiểu được sự phức tạp của máy học nhưng họ có nghĩa vụ phải đảm bảo các nhà khoa học dữ liệu của mình đang tuân thủ các thực tiễn tốt nhất của ngành.

 

Thiết kế cho sự an toàn

Trong nhiều thập kỷ, các nhà văn trong lĩnh vực khoa học viễn tưởng đã cảnh báo về những nguy cơ trí tuệ nhân tạo đẩy con người tới tận thế. Giờ đây AI đang trở nên phổ biến và chúng ta phải thừa nhận rằng việc AI có khả năng gây hại cho con người không chỉ là những thứ xuất hiện trên phim ảnh hay tiểu thuyết. Các ứng dụng như xe tự lái và hệ thống vũ khí dựa trên AI rõ ràng ảnh hưởng đến sự an toàn của con người và điều này phụ thuộc hoàn toàn vào các nhà thiết kế. Họ phải đảm bảo rằng những hệ thống này an toàn nhất có thể. Và trong khi các hệ thống máy học khác có thể không ảnh hưởng trực tiếp đến sự an toàn về thể chất của con người, chúng có thể có tác động lớn đến quyền riêng tư và bảo mật trực tuyến của chúng ta.

 

Chọn các công nghệ minh bạch

Một trong những bước quan trọng các tổ chức cần phải thực hiện khi nói về đạo đức AI là đảm bảo rằng họ hiểu đầy đủ về hoạt động của bất kỳ hệ thống AI nào mình đang sử dụng. Trong một cuộc phỏng vấn qua email, Ryan Welsh, Giám đốc điều hành của nhà cung cấp AI Kyndi nói: “Để nhận ra tiềm năng đầy đủ của AI, niềm tin là rất quan trọng. Niềm tin đến từ sự hiểu biết – và có thể là biện minh – lý do đằng sau kết luận cũng như kết quả của hệ thống. AI không thể là một hộp đen dù ngày nay nó thường là như vậy. ” Ông nói thêm, “Để AI phát triển mạnh, nó cần phải có thể giải thích được.”

Viện AI Now cho biết thêm: “Đối với trách nhiệm giải trình có ý nghĩa, chúng ta cần hiểu rõ hơn và theo dõi các bộ phận cấu thành nên hệ thống AI và chuỗi cung ứng đầy đủ nó dựa vào, bao gồm việc sử dụng và nguồn gốc của dữ liệu đào tạo, dữ liệu thử nghiệm, các mô hình, các giao diện lập trình ứng dụng và các thành phần cơ sở hạ tầng khác trong vòng đời sản phẩm.”

 

Làm sạch dữ liệu của bạn

Các hệ thống học máy hoạt động tốt khi dữ liệu đầu vào tốt. Đối với nhiều tổ chức, chất lượng dữ liệu tiếp tục là mối quan tâm chính. Trong trường hợp xấu nhất, dữ liệu xấu có thể khiến các nhà lãnh đạo đưa ra quyết định không chính xác, thậm chí là xâm phạm về mặt đạo đức.

Mặt khác, việc có dữ liệu chính xác và được cập nhật sẽ làm tăng khả năng các ứng dụng AI mang lại lợi ích tài chính cho tổ chức. Trong một cuộc phỏng vấn qua email, James Cotton, giám đốc quốc tế của Trung tâm quản lý dữ liệu xuất sắc tại Information Builders, cho biết: “Lợi nhuận sẽ lớn hơn nhiều khi phân tích được áp dụng cho dữ liệu được quản lý tốt. Minh bạch về việc bạn biết nó đến từ đâu và nó được sử dụng như thế nào dẫn đến lợi nhuận lớn hơn đáng kể”.

 

Kiểm tra mô hình của bạn để nhận biết các dấu hiệu thiên vị

Các nhà khoa học dữ liệu không chỉ cần đảm bảo dữ liệu của tổ chức sạch mà còn phải đảm bảo dữ liệu cũng mô hình dữ liệu của mình không chứa bất kỳ thiên vị tiềm tàng nào. Vấn đề này có thể vô tình len lỏi vào những mô hình học máy theo một vài cách khác nhau.

Đầu tiên, điều này xảy ra có thể bắt nguồn từ nguyên nhân các tổ chức đang sử dụng dữ liệu đào tạo không đầy đủ. Ví dụ: nếu bạn huấn luyện hệ thống nhận dạng khuôn mặt chỉ với các hình ảnh khuôn mặt của người châu Âu, bạn không nên ngạc nhiên khi hệ thống gặp khó khăn trong việc nhận diện khuôn mặt của người châu Phi hoặc châu Á.

Tiếp theo, nhiều bộ dữ liệu có chứa sự sai lệch mang tính lịch sử. Ví dụ, một số ngành nghề, như điều dưỡng hoặc kỹ thuật, theo truyền thống bị chi phối bởi một giới tính. Nếu bạn huấn luyện hệ thống nhân sự dựa trên AI của mình chọn ứng viên cho các cuộc phỏng vấn dựa trên dữ liệu lịch sử này, bạn có thể vô tình rơi vào tình trạng lựa chọn rập khuôn và thậm chí có thể vi phạm luật chống phân biệt đối xử.

 

Giám sát các phát hiện và phản hồi

Bất kỳ nhà khoa học dữ liệu nào cũng sẽ nói với bạn rằng không có mô hình dữ liệu nào là hoàn hảo. Điều tốt nhất chúng ta có thể hy vọng là chúng sẽ cải thiện theo thời gian. Điều đó có nghĩa là con người thực sự cần phải theo dõi các hệ thống để phát hiện ra các vấn đề đạo đức tiềm ẩn. Nhiều tổ chức từng công bố hướng dẫn về AI nói rằng tất cả AI cần có trách nhiệm với con người. Nhưng một số thêm rằng trách nhiệm đơn thuần là không đủ; các giám sát viên của con người cần phải tích cực theo dõi các hành động và tương tác của AI với con người, thực hiện các điều chỉnh khi cần thiết để đảm bảo rằng công nghệ không vượt bất kỳ ranh giới đạo đức nào.

 

Hãy chắc chắn rằng bạn có thể hoàn tác bất cứ điều gì AI làm

Một lưu ý quan trọng, bạn cần có khả năng “tua lại” bất kỳ quyết định nào mà AI đưa ra. Forrester khuyến nghị rằng các hệ thống AI cần phải có thể đánh giá được, có tính toàn bộ và có thể đảo ngược. Điều đó có nghĩa là thiết kế các hệ thống phải có thể sửa đổi, và cũng có thể cần phải có sự tham gia của yếu tố con người cho những thứ như quyết định cho vay tín dụng.

AI Now đưa ý tưởng này tiến thêm một bước: “Khả năng tổ chức và đối kháng của các nhân viên công nghệ đã nổi lên như là một lực lượng cho tính trách nhiệm và việc đưa ra quyết định đạo đức. Các công ty công nghệ cần bảo vệ khả năng của nhân viên trong việc tổ chức, báo cáo các vấn đề một cách bí mật và đưa ra các lựa chọn đạo đức về những dự án họ đang làm việc. Điều này bao gồm các chính sách rõ ràng hỗ trợ và bảo vệ những người phản đối đúng, đảm bảo người lao động có quyền biết những gì họ đang làm và khả năng từ bỏ công việc đó mà không bị phạt hay trả thù.”

 

Xem xét việc thiết lập một ban cố vấn các vấn đề về đạo đức của AI

Một số công ty công nghệ, bao gồm cả Google, thành lập một hội đồng tư vấn để hướng dẫn việc sử dụng AI của tổ chức. Mặc dù việc có một nhóm bên ngoài giám sát các nỗ lực trí tuệ nhân tạo có thể giúp bạn xây dựng lòng tin trong công chúng nhưng nó cũng có khả năng gây tác dụng ngược lại. Một số công ty đã bị chỉ trích vì bổ nhiệm các thành viên trong hội đồng đạo đức AI không phù hợp.

Mặc dù các ban cố vấn này vẫn còn nhiều thiếu sót nhưng nếu không có một quy định hay tiêu chuẩn ngành nào, họ có thể là cơ hội tốt nhất của công ty trong việc thuyết phục công chúng rằng việc phát triển AI của mình đang được giám sát bởi những người không có lợi ích cá nhân gì trong tổ chức.