Nói về sự tin cậy của AI trong thời đại số

     

Công nghệ sử dụng trí tuệ nhân tạo (AI) tiếp tục phát triển nhảy vọt và đang nhanh chóng trở thành một yếu tố tiềm năng và là yếu tố cần thiết cho hầu hết các doanh nghiệp trong mọi lĩnh vực. Ngày nay, một trong những rào cản đối với việc triển khai rộng rãi AI không còn là bản thân công nghệ, mà là một loạt thách thức trớ trêu mang tính nhân văn hơn nhiều: đạo đức và giá trị con người.

AI phân biệt dựa trên chủng tộc, tuổi tác hoặc giới tính

Khi AI mở rộng trong hầu hết mọi khía cạnh của cuộc sống hiện đại, những rủi ro của việc lạm dụng AI sẽ tăng lên theo cấp số nhân đến mức những rủi ro đó có thể trở thành vấn đề sinh tử theo đúng nghĩa đen. Một số ví dụ tuyệt vời về AI đã bị “phá vỡ” bao gồm các hệ thống phân biệt đối xử với mọi người vì chủng tộc, tuổi tác hoặc giới tính và các hệ thống truyền thông xã hội vô tình lan truyền tin đồn và thông tin sai lệch, v.v.

Nhưng hãy biết rằng những ví dụ này chỉ là phần nổi của tảng băng chìm. Khi AI được triển khai trên quy mô lớn hơn, các rủi ro liên quan có khả năng chỉ tăng lên, điều này có thể gây ra hậu quả nghiêm trọng cho xã hội nói chung và hậu quả thậm chí lớn hơn đối với các doanh nghiệp có trách nhiệm. Từ góc độ kinh doanh, những hậu quả tiềm ẩn này bao gồm từ các vụ kiện tụng, tiền phạt theo quy định và khách hàng tức giận đến sự xấu hổ, tổn hại danh tiếng và phá hủy giá trị của cổ đông.

Có trí tuệ nhân tạo, điều cần thiết cho các công ty

Tuy nhiên, với việc AI hiện đang trở thành một yếu tố khác biệt trong kinh doanh cốt lõi, không chỉ là điều mong muốn đối với các công ty.

Các công ty phải học cách xác định và quản lý rủi ro AI một cách hiệu quả. Để đạt được tiềm năng hợp tác giữa con người và máy móc, các tổ chức phải truyền đạt một kế hoạch cho AI được thông qua và thảo luận bởi chính ban giám đốc của công ty.

Khuôn khổ tin cậy AI

Khung AI đáng tin cậy của Deloitte giới thiệu sáu khía cạnh chính, được coi là chung trong các giai đoạn thiết kế, phát triển, triển khai và hoạt động của việc triển khai hệ thống AI, có thể giúp bảo vệ đạo đức và xây dựng chiến lược AI đáng tin cậy.

Khuôn khổ AI đáng tin cậy được thiết kế để giúp các công ty xác định và giảm thiểu rủi ro tiềm ẩn liên quan đến đạo đức của AI ở mỗi giai đoạn của vòng đời AI. Mỗi kích thước trong số sáu chiều của khung được kiểm tra kỹ hơn bên dưới.

Công bằng, không thiên vị

Một AI đáng tin cậy phải được thiết kế và đào tạo để tuân theo một quy trình công bằng, nhất quán với việc đưa ra các quyết định công bằng. Nó cũng nên bao gồm các kiểm soát bên trong và bên ngoài để giảm sự thiên vị phân biệt đối xử.

Sự thiên vị là một thách thức liên tục đối với con người và cả xã hội, không chỉ đối với AI. Tuy nhiên, thách thức thậm chí còn lớn hơn đối với AI vì nó thiếu hiểu biết về các chuẩn mực xã hội – chưa kể đến trí thông minh chung đặc biệt cần thiết để đạt được “ý thức chung” – có thể dẫn đến các quyết định đúng về mặt kỹ thuật nhưng lại không được xã hội chấp nhận. AI học hỏi từ các tập dữ liệu được sử dụng để đào tạo nó và nếu các tập dữ liệu đó chứa các thành kiến ​​trong thế giới thực, các hệ thống AI có thể học hỏi, khuếch đại và truyền bá xu hướng đó ở tốc độ và quy mô kỹ thuật số.

Ví dụ: một hệ thống AI quyết định nhanh chóng nơi đặt quảng cáo việc làm trực tuyến có thể hướng các quảng cáo về công việc được trả lương cao hơn một cách không công bằng cho khách truy cập là nam giới vào trang web vì dữ liệu trong thế giới thực cho thấy nam giới có xu hướng kiếm được nhiều hơn phụ nữ. Tương tự, một công ty dịch vụ tài chính sử dụng trí thông minh nhân tạo để sàng lọc các ứng dụng thế chấp có thể thấy rằng thuật toán của họ phân biệt đối xử bất công đối với mọi người dựa trên các yếu tố không được xã hội chấp nhận, chẳng hạn như chủng tộc, giới tính hoặc tuổi tác. Trong cả hai trường hợp, công ty chịu trách nhiệm về AI có thể phải đối mặt với những hậu quả đáng kể, chẳng hạn như tiền phạt theo quy định và thiệt hại về danh tiếng.

Xem thêm Quản trị dữ liệu là gì?

Để tránh các vấn đề về công bằng và thiên vị, trước tiên các công ty nên xác định điều gì tạo nên “công bằng”. Điều này có thể khó hơn nhiều so với những gì nó xuất hiện, vì đối với bất kỳ vấn đề nhất định nào nói chung không có định nghĩa duy nhất về “công bằng” mà mọi người đều đồng ý. Các công ty cũng cần chủ động tìm kiếm sự thiên vị trong các thuật toán và dữ liệu của họ, thực hiện các điều chỉnh cần thiết và thực hiện các biện pháp kiểm soát để giúp đảm bảo rằng sự thiên vị bổ sung không phát sinh ngoài dự kiến. Khi phát hiện thấy sai lệch, nó cần được hiểu rõ và sau đó giảm thiểu thông qua các quy trình đã thiết lập để giải quyết vấn đề và khôi phục lòng tin của khách hàng.

AI không còn có thể được coi như một “hộp đen” nhận đầu vào và tạo ra kết quả đầu ra mà không cần hiểu rõ ràng về những gì đang diễn ra bên trong.

Minh bạch và dễ giải thích

Để AI trở nên đáng tin cậy, tất cả những người tham gia đều có quyền hiểu cách dữ liệu của họ đang được sử dụng và cách AI đưa ra quyết định. Các thuật toán, thuộc tính và mối tương quan của AI phải được mở để kiểm tra và các quyết định của chúng phải hoàn toàn có thể giải thích được.

Ví dụ: các nhà bán lẻ trực tuyến sử dụng AI để đưa ra các đề xuất sản phẩm cho khách hàng đang chịu áp lực giải thích các thuật toán của họ và cách đưa ra các quyết định đề xuất. Tương tự, hệ thống tư pháp Hoa Kỳ đang phải đối mặt với tranh cãi liên tục về việc sử dụng các hệ thống AI không rõ ràng để thông báo các quyết định về các bản án hình sự.

Các vấn đề quan trọng cần xem xét trong lĩnh vực này bao gồm xác định các trường hợp sử dụng AI mà tính minh bạch và khả năng giải thích là đặc biệt quan trọng, sau đó hiểu dữ liệu được sử dụng và cách đưa ra quyết định cho các trường hợp sử dụng đó. Ngoài ra, liên quan đến tính minh bạch, ngày càng có nhiều áp lực buộc mọi người phải được thông báo rõ ràng khi họ tương tác với AI, thay vì AI phải được cải trang thành người thật.

Trách nhiệm giải trình

Các hệ thống AI đáng tin cậy nên bao gồm các chính sách xác định rõ ràng ai là người chịu trách nhiệm và chịu trách nhiệm về kết quả của họ. Đổ lỗi cho bản thân công nghệ vì những quyết định tồi tệ và tính toán sai lầm là chưa đủ, đối với những người bị hại hoặc tất nhiên, đối với các cơ quan quản lý của chính phủ. Đây là một vấn đề then chốt có khả năng trở nên quan trọng hơn khi AI được sử dụng cho một loạt các ứng dụng ngày càng quan trọng, chẳng hạn như chẩn đoán bệnh tật, quản lý tài sản và lái xe tự hành.

Tương tự, hãy xem xét ví dụ về một công ty đầu tư sử dụng nền tảng tự động do AI điều khiển để giao dịch thay mặt cho khách hàng của mình. Nếu một khách hàng đầu tư tiền tiết kiệm của mình thông qua công ty và sau đó mất tất cả vì các thuật toán kém, cần có một cơ chế để xác định ai là người chịu trách nhiệm cho vấn đề và ai chịu trách nhiệm về việc làm đúng.

Các yếu tố chính cần xem xét bao gồm luật và quy định có thể xác định trách nhiệm pháp lý và liệu các hệ thống trí tuệ nhân tạo có thể kiểm tra và tuân theo các luật hiện hành của người tố giác hay không. Ngoài ra, các vấn đề sẽ được thông báo với công chúng và các cơ quan quản lý như thế nào, và hậu quả đối với các bên có trách nhiệm là gì?

Mạnh mẽ và đáng tin cậy

Để AI đạt được sự chấp nhận rộng rãi, ít nhất nó phải mạnh mẽ và đáng tin cậy như các hệ thống, quy trình và con người truyền thống mà nó đang bổ sung hoặc thay thế.

Để AI được coi là đáng tin cậy, nó phải sẵn sàng khi được cho là và phải tạo ra kết quả nhất quán và đáng tin cậy để thực hiện đầy đủ các nhiệm vụ trong điều kiện ít hơn lý tưởng và khi gặp phải các tình huống và dữ liệu không mong muốn. AI đáng tin cậy phải mở rộng quy mô tốt, duy trì mạnh mẽ và đáng tin cậy khi tác động của nó mở rộng và phát triển. Và nếu nó không thành công, nó phải thất bại một cách có thể đoán trước và dự kiến ​​được.

Hãy xem xét ví dụ về một công ty chăm sóc sức khỏe sử dụng AI để xác định các bản quét não bất thường và kê đơn điều trị thích hợp. Để trở nên đáng tin cậy, điều tối quan trọng là các thuật toán AI tạo ra kết quả nhất quán và đáng tin cậy vì tính mạng có thể bị đe dọa.

Để đạt được AI mạnh mẽ và đáng tin cậy, các công ty cần đảm bảo rằng các thuật toán AI của họ tạo ra kết quả phù hợp cho mỗi tập dữ liệu mới. Họ cũng cần các quy trình được thiết lập để xử lý các vấn đề và mâu thuẫn có thể phát sinh. Yếu tố con người là một yếu tố quan trọng trong vấn đề này: hiểu được đầu vào của con người ảnh hưởng như thế nào đến độ tin cậy; xác định ai là người phù hợp để cung cấp đầu vào; và đảm bảo rằng những người đó được trang bị và đào tạo thích hợp, đặc biệt là về sự thiên vị và đạo đức.

>>> Tham quan bên trong Data center lớn nhất của MICROSOFT?

Riêng tư

Quyền riêng tư là một vấn đề quan trọng đối với tất cả các loại hệ thống dữ liệu, nhưng nó đặc biệt quan trọng đối với AI, vì kiến ​​thức phức tạp do các hệ thống AI tạo ra thường đến từ dữ liệu cá nhân và chi tiết hơn. AI đáng tin cậy phải tuân thủ các quy định về dữ liệu và chỉ sử dụng dữ liệu cho các mục đích đã nêu và đã thỏa thuận.

Vấn đề về quyền riêng tư của AI thường vượt ra ngoài bức tường của chính công ty. Ví dụ: quyền riêng tư của dữ liệu âm thanh được các trợ lý AI thu thập đã trở thành tiêu đề trong thời gian gần đây và các cuộc tranh cãi đã nổ ra về mức độ dữ liệu có thể truy cập được đối với các nhà cung cấp và đối tác của công ty và liệu nó có nên được chia sẻ với các cơ quan thực thi pháp luật hay không.

Các công ty cần biết dữ liệu khách hàng nào đang được thu thập và tại sao, và liệu dữ liệu có được sử dụng theo cách mà khách hàng hiểu và đồng ý hay không. Ngoài ra, khách hàng phải được cung cấp mức độ kiểm soát bắt buộc đối với dữ liệu của họ, bao gồm khả năng chọn tham gia hoặc không chia sẻ dữ liệu của họ. Và nếu khách hàng có lo ngại về quyền riêng tư của dữ liệu, họ cần có cách để bày tỏ những lo ngại đó.

An ninh và bảo vệ

Để trở nên đáng tin cậy, AI phải được bảo vệ khỏi các rủi ro an ninh mạng có thể dẫn đến thiệt hại vật lý và / hoặc kỹ thuật số. Trong khi bảo mật và bảo vệ rõ ràng là quan trọng đối với tất cả các hệ thống CNTT, chúng đặc biệt quan trọng đối với AI do vai trò và tác động ngày càng tăng của AI đối với các hoạt động trong thế giới thực.

Ví dụ: nếu một hệ thống tài chính dựa trên AI bị tấn công, kết quả có thể là thiệt hại về danh tiếng và mất tiền hoặc dữ liệu. Tất nhiên, đây là những hậu quả nghiêm trọng. Tuy nhiên, chúng không nghiêm trọng bằng hậu quả có thể xảy ra khi một chiếc xe do AI điều khiển bị tấn công, có thể gây nguy hiểm đến tính mạng con người.

Một ví dụ khác về rủi ro an ninh mạng AI là một vụ vi phạm dữ liệu gần đây liên quan đến hàng triệu bản ghi nhận dạng vân tay và khuôn mặt. Vi phạm này đặc biệt nghiêm trọng vì nó liên quan đến dữ liệu sinh trắc học của các cá nhân, là dữ liệu vĩnh viễn và không thể thay đổi (không giống như mật khẩu bị đánh cắp hoặc dữ liệu tiêu chuẩn khác có thể được thay đổi nhanh chóng và dễ dàng để hạn chế thiệt hại).

AI có thể được tin cậy?

Đạo đức của AI đang nổi lên như một thách thức lớn nhất đối với sự tiến bộ không ngừng của AI và sự triển khai rộng rãi của nó, và đó là thách thức mà các công ty không thể bỏ qua khi AI đang trở thành một năng lực kinh doanh cốt lõi. Khuôn khổ AI đáng tin cậy cung cấp một cách suy nghĩ có cấu trúc và toàn diện về đạo đức của AI, giúp các công ty thiết kế, phát triển, triển khai và vận hành các hệ thống AI mà họ có thể tin tưởng.

Dịch vụ Dedicated GPU Server VDO cho thuê trọn gói bao gồm thiết bị phần cứng máy chủ chuyên dụng hỗ trợ GPUs, được tích hợp sẵn các bộ vi xử lý hình ảnh chuyên dụng Graphics Processing Unit (GPU) và chỗ đặt thiết bị máy chủ này trên Data center đạt tiêu chuẩn quốc tế Tier3.

Khách hàng thuê Dedicated GPU Server của VDO sẽ được lựa chọn sử dụng những dòng máy chủ chính hãng, có cấu hình cao và mới nhất của Dell EMC, HP Enterprise, Lenovo ThinkSystem, Lenovo SystemX…

– VPGD HN: Tầng 2, số 61 Mễ Trì Thượng, Phường Mễ Trì, Quận Nam Từ Liêm,Thành Phố Hà Nội.
– Tel: 024 7305 6666
– VPGD TPHCM: Phòng 13.09, Lô C, Số 974A Trường Sa (Co.opmart Nhiêu Lộc), Phường 12, Quận 3, Hồ Chí Minh.
– Tel: 028 7308 6666
– Contact Center: 1900 0366
– Email: info@vdo.vn
– Website: https://vdodata.vn/