YUVAL NOAH HARARI
Trích: Nexus Lược Sử Của Những Mạng Lưới Thông Tin Từ Thời Đại Đồ Đá Đến Trí Tuệ Nhân Tạo; Việt dịch: Bùi Thị Hồng Ninh & Nguyễn Quốc Tấn Trung; NXB Thế giới; Công ty CP Sách Omega VN, 2024
Một số người hi vọng khắc phục vấn đề của tôn giáo và ý thức hệ bằng cách trao nhiều quyền lực hơn cho máy tính. Lập luận để làm như vậy có thể theo hướng như thế này: phân biệt chủng tộc, kỳ thị phụ nữ, kỳ thị đồng tính, bài Do Thái và các thành kiến khác không bắt nguồn từ máy tính mà trong điều kiện tâm lý và niềm tin huyền thoại của con người. Máy tính là những sinh vật điện toán không có tâm thức và cũng không tin vào một huyền thoại. Vì vậy, nếu chúng ta có thể đưa con người hoàn toàn ra khỏi phương trình, các thuật toán cuối cùng có thể tự mình quyết định mọi thứ trên cơ sở toán học thuần túy, thoát khỏi mọi biến dạng tâm lý hoặc định kiến huyền thoại của con người.
Thật không may, nhiều nghiên cứu đã cho thấy chính máy tính điện toán cũng thường có những thành kiến sâu sắc của riêng chúng. Dù không phải là thực thể sinh học, và cũng không sở hữu ý thức, máy tính vẫn sở hữu điều gì đó na ná với tâm lý kỹ thuật số và thậm chí là một thứ huyền thoại liên máy tính. Chính chúng cũng có thể phân biệt chủng tộc, kỳ thị phụ nữ, kỳ thị đồng tính hoặc bài Do Thái. Ví du, vào ngày 23 tháng 3 năm 2016, Microsoft đã tung ra bot hội thoại trí tuệ nhân tạo với tên gọi Tay, cho phép con AI này truy cập tự do vào các dữ liệu trên trang mạng xã hội Twitter. Trong vòng vài giờ, Tay bắt đầu đăng những lời lẽ kỳ thị phụ nữ và bài Do Thái, như “Tôi ghét các nhà nữ quyền, họ nên chết và bị thiêu đốt trong địa ngục hết đi” và “Hitler đã đúng, tôi ghét người Do Thái.” Sự phỉ báng và đả kích ngày càng độc hại cho đến khi các kỹ sư của Microsoft phải hãi hùng đóng cửa Tay – vỏn vẹn mười sáu tiếng sau khi phát hành.
Lối phân biệt chủng tộc tinh vi hơn nhưng sâu rộng hơn đã được giáo sư Joy Buolamwini ở trường MIT phát hiện vào năm 2017 trong các thuật toán thương mại dùng để phân loại khuôn mặt. Cô chỉ ra các thuật toán này rất chính xác trong việc xác định nam giới da trắng, nhưng cực kỳ không chính xác trong việc xác định phụ nữ da đen. Ví dụ, thuật toán IBM chỉ có sai sót 0,3% khi xác định giới tính của nam giới da sáng màu, nhưng lại có tỉ lệ sai sót lên đến 34,7% khi cố gắng xác định giới tính của phụ nữ da sẫm màu. Trong một thử nghiệm định tính, Buolamwini đã yêu cầu các thuật toán phân loại ảnh của Sojourner Truth, nhà hoạt động người Mỹ gốc Phi là nữ giới nổi tiếng với bài phát biểu năm 1851 mang tên “Tôi không phải phụ nữ hay sao?” Các thuật toán xác định Truth là một người đàn ông.
Hay khi Buolamwini – một phụ nữ Mỹ gốc Ghana – thử nghiệm một thuật toán phân tích khuôn mặt khác để định danh, thuật toán hoàn toàn không thể “nhìn thấy” khuôn mặt sẫm màu của cô. Trong bối cảnh này, “nhìn thấy” có nghĩa là khả năng nhận biết sự hiện diện của khuôn mặt người, với ví dụ cụ thể là tính năng lấy nét khuôn mặt được sử dụng phổ biến bởi máy ảnh điện thoại. Thuật toán dễ dàng nhìn thấy những khuôn mặt có làn da sáng, nhưng khuôn mặt của Buolamwini thì không. Chỉ khi Buolamwini đeo mặt nạ màu trắng; thuật toán mới nhận ra nó đang quan sát khuôn mặt người.
Chuyện gì đang xảy ra ở đây? Một câu trả lời khả dĩ là các kỹ sư phát triển có tư tưởng phân biệt chủng tộc và kỳ thị phụ nữ đã lập trình các thuật toán này để chúng phân biệt đối xử với phụ nữ da đen. Dù đúng là chúng ta không thể loại trừ khả năng này, đây không phải là câu trả lời trong tình huống của thuật toán phân loại khuôn mặt hoặc AI Tay của Microsoft. Thực tế cho thấy, các thuật toán này đã tự mình chọn ra thiên kiến phân biệt chủng tộc và kỳ thị phụ nữ từ dữ liệu mà chúng được đào tạo.
Để hiểu làm thế nào điều này có thể xảy ra, chúng ta cần giải thích một vài điều về lịch sử của các thuật toán. Ban đầu, các thuật toán không thể tự học được nhiều. Ví dụ, trong những năm 1980 và 1990, hầu hết những gì các thuật toán chơi cờ biết đều do các lập trình viên con người chỉ dạy. Con người đã lập trình vào thuật toán không chỉ các quy tắc cơ bản của cờ vua mà còn cả cách đánh giá các vị trí và nước đi khác nhau trên bàn cờ. Ví dụ, con người lập trình một quy tắc cơ bản rằng hi sinh con hậu để đổi lấy một con tốt thường là một ý tưởng tồi. Những thuật toán sơ khai này đã đánh bại các kỳ thủ cờ vua con người đơn giản là vì các thuật toán có thể tính toán nhiều nước đi hơn và đánh giá nhiều vị trí hơn con người. Nhưng khả năng của các thuật toán vẫn còn hạn chế. Vì chúng dựa vào con người để biết những bí mật của trò chơi, nếu các lập trình viên con người không biết điều gì đó, các thuật toán mà họ tạo ra cũng không thể biết điều đó.
Với lĩnh vực học máy ngày một phát triển, các thuật toán đã trở nên độc lập hơn. Nguyên tắc cơ bản của học máy là các thuật toán có thể tự dạy cho mình những điều mới bằng cách tương tác với thế giới, giống như con người, từ đó tạo ra một trí tuệ nhân tạo hoàn chỉnh. Thuật ngữ này không phải lúc nào cũng nhất quán, nhưng nói chung, để một sự vật được thừa nhận là AI, nó cần khả năng tự học những điều mới, thay vì chỉ làm theo hướng dẫn của những người tạo ra nó ban đầu. AI chơi cờ ngày nay không được dạy gì ngoại trừ các quy tắc cơ bản của trò chơi. Nó tự học mọi thứ khác, bằng cách phân tích cơ sở dữ liệu của các trận cờ trước đó hoặc bằng cách chơi các trận mới và học hỏi kinh nghiệm. AI giờ đây không phải là một cỗ máy tự động ngờ nghệch lặp đi lặp lại cùng một nước cờ bất kể kết quả. Thay vào đó, nó được trang bị những cơ chế tu chính mạnh mẽ, cho phép nó học hỏi từ những sai lầm của chính mình.
Điều này có nghĩa là AI bắt đầu cuộc sống của nó như một “thuật toán con trẻ, có rất nhiều tiềm năng và sức mạnh tính toán nhưng không biết nhiều điều. Cha mẹ con người của AI chỉ cung cấp cho nó khả năng học hỏi và truy cập vào một thế giới dữ liệu. Sau đó, họ để thuật toán con trẻ này tự khám phá thế giới. Giống như trẻ sơ sinh thể dạng hữu cơ, các thuật toán con trẻ học bằng cách phát hiện các xu hướng trong hệ thống dữ liệu mà chúng có quyền truy cập. Nếu tôi chạm vào lửa thì sẽ đau. Nếu tôi khóc thì mẹ sẽ đến. Nếu hi sinh một con hậu cho một con tốt, có lẽ tôi sẽ thua trò cờ vua. Bằng cách tìm ra các xu hướng trong dữ liệu, thuật toán con trẻ này học được nhiều hơn, bao gồm cả nhiều điều mà cha mẹ con người không biết.
Tuy nhiên, tự thân hệ cơ sở dữ liệu đã đi kèm với những thành kiến. Các thuật toán nhận diện khuôn mặt do Joy Buolamwini nghiên cứu được đào tạo bằng các bộ dữ liệu bao gồm các bức ảnh điện tử được đánh dấu, như bộ dữ liệu Labeled Faces trong cơ sở dữ liệu của Wild. Các bức ảnh trong cơ sở dữ liệu này lại được chụp chủ yếu từ các bài báo điện tử. Vì nam giới da trắng thống trị tin tức, 78% ảnh trong cơ sở dữ liệu là của nam giới và 84% là của người da trắng. George W. Bush xuất hiện 530 lần – nhiều hơn gấp đôi so với tất cả phụ nữ Da đen cộng lại. Một cơ sở dữ liệu khác do một cơ quan chính phủ Mỹ thu thập có hơn 75% là nam giới, gần 80% đã sáng và chỉ có 4,4% phụ nữ da sẫm màu. Không có gì ngạc nhiên khi các thuật toán được đào tạo trên các bộ dữ liệu như vậy rất xuất sắc trong việc xác định đàn ông da trắng nhưng cực tệ hại trong việc xác định phụ nữ da đen. Điều tương tự cũng xảy ra với ứng dụng hội thoại Tay. Các kỹ sư của Microsoft đã không xây dựng vào đó bất kỳ định kiến xác lập nào. Nhưng một vài giờ tiếp xúc với thông tin độc hại trên mạng xã hội Twitter đã biến AI thành một kẻ phân biệt chủng tộc cuồng nộ.
Thậm chí mọi thứ còn tệ hơn. Để học, các thuật toán con trẻ cần thêm một thứ bên cạnh việc truy cập dữ liệu. Chúng cần một mục tiêu: Một trẻ em con người học cách đi bộ vì cô bé muốn đi đến một nơi nào đó. Một con sư tử con học cách săn mồi vì nó muốn ăn. Các thuật toán cần có một mục tiêu để học. Trong cờ vua, thật dễ dàng để xác định mục tiêu: lấy quân vua của đối thủ. AI học được rằng hi sinh một quân hậu cho một con tốt là một “sai lầm,” vì nó thường ngăn thuật toán đạt được mục tiêu cuối cùng. Trong nhận dạng khuôn mặt, mục tiêu cũng dễ dàng: xác định giới tính, tuổi và tên của người đó như được liệt kê trong cơ sở dữ liệu gốc. Nếu thuật toán đoán rằng George W. Bush là nữ, nhưng cơ sở dữ liệu cho biết người này là nam, mục tiêu đã không đạt được và thuật toán học hỏi từ sai lầm của nó.
Nhưng nếu bạn muốn đào tạo một thuật toán để tuyển dụng nhân sự chẳng hạn, bạn sẽ xác định mục tiêu như thế nào? Làm thế nào thuật toán biết nó đã phạm sai lầm và thuê “sai” người? Chúng ta có thể nói với thuật toán con trẻ rằng mục tiêu của nó là thuê những người ở lại công ty ít nhất một năm. Người sử dụng lao động rõ ràng không muốn đầu tư nhiều thời gian và tiền bạc vào việc đào tạo một công nhân sẽ nghỉ việc hoặc bị sa thải sau một vài tháng. Khi đã xác định mục tiêu theo cách như vậy, đã đến lúc xem qua dữ liệu. Trong cờ vua, thuật toán có thể tạo ra bất kỳ lượng dữ liệu mới nào chỉ bằng cách chơi với chính nó. Nhưng trong thị trường việc làm, điều đó là không thể. Không ai có thể tạo ra cả một thể giới tưởng tượng, nơi thuật toán con trẻ có thể thuê và sa thải con người ảo và học hỏi từ kinh nghiệm đó. Thuật toán con trẻ chỉ có thể đào tạo trên cơ sở dữ liệu hiện có về con người ngoài đời thực. Giống như sư tử con tìm hiểu ngựa vằn là gì chủ yếu bằng cách phát hiện các xu hướng trong thảo nguyên ngoài đời thực, các thuật toán tìm hiểu một nhân viên giỏi là gì bằng cách phát hiện các xu hướng trong những công ty ngoài đời thực.
Thật không may, nếu những công ty ngoài đời thực đã bị ngấm sâu thành kiến, thuật toán con trẻ có khả năng học được sự thiên vị này và thậm chí khuếch đại nó. Ví dụ, một thuật toán tìm kiếm các mẫu “nhân viên giỏi” trong dữ liệu thực tế có thể kết luận rằng việc thuê cháu trai của sếp luôn là một ý tưởng hay, bất kể họ có bằng cấp nào khác. Điều này là bởi dữ liệu chỉ ra rõ ràng rằng “cháu trai của sếp” có khả năng được thuê cao khi đi xin việc và hiếm khi bị sa thải. Thuật toán con trẻ phát hiện ra xu hướng này và thích ứng với tư duy con ông cháu cha. Nếu nó được giao phụ trách một bộ phận nhân sự, nó sẽ bắt đầu ưu tiên cho các cháu trai của ông chủ.
Tương tự, nếu những công ty trong một xã hội kỳ thị phụ nữ thích thuê nam giới hơn là nữ giới, một thuật toán được đào tạo về dữ liệu thực tế cũng có khả năng nhận ra sự thiên vị đó. Điều này quả đã xảy ra khi Amazon cố gắng phát triển một thuật toán để sàng lọc hồ sơ ứng tuyển trong giai đoạn 2014-2018. Học hỏi từ các hồ sơ thành công và không thành công trước đó, thuật toán bắt đầu hạ cấp một cách có hệ thống mọi hồ sơ chỉ đơn giản là chứa từ “phụ nữ” hoặc đến từ sinh viên tốt nghiệp các trường dành cho nữ giới. Vì dữ liệu hiện có cho thấy trong quá khứ các hồ sơ này ít có cơ hội thành công hơn; thuật toán đã hình thành thiên kiến chống lại họ. Thuật toán nghĩ nó chỉ đơn giản là phát hiện ra một sự thật khách quan về thế giới: những ứng viên tốt nghiệp từ các trường dành cho nữ giới không đủ năng lực. Trên thực tế, nó chỉ nội tâm hóa và áp đặt một thành kiến phân biệt đối xử với phụ nữ. Amazon đã cố gắng nhưng thất bại trong việc khắc phục sự cố, và cuối cùng phải loại bỏ dự án. Cơ sở dữ liệu mà AI được đào tạo gần giống thời thơ ấu của con người. Những trải nghiệm thời thơ ấu, những tổn thương và những câu chuyện cổ tích sẽ đeo đẳng chúng ta trong suốt cuộc đời. AI cũng có những trải nghiệm thời thơ ấu. Các thuật toán thậm chí có thể lây nhiễm lẫn nhau với những thiên kiến của chúng, giống như cách con người làm. Hãy xem xét thử một xã hội tương lai, trong đó các thuật toán có mặt khắp nơi và được sử dụng không chỉ để sàng lọc người ứng tuyến mà còn để giới thiệu cho mọi người chuyên ngành nên theo đuổi ở trường đại học. Giả sử rằng do thành kiến với phụ nữ từ trước; 80% công việc trong ngành kỹ thuật được trao cho nam giới. Trong xã hội này, một thuật toán tuyển dụng các kỹ sư mới không chí có khả năng sao chép thành kiến sẵn có, mà còn lây nhiễm thành kiến ấy cho các thuật toán giới thiệu ngành học đại học. Một cô gái trẻ đang chuẩn bị vào đại học có thể không được khuyến khích học kỹ thuật, vì dữ liệu hiện có cho thấy đến cuối cùng cô có rất ít khả năng tìm được việc làm. Những gì bắt đầu như một huyền thoại liên chủ thể của con người, rằng “phụ nữ không giỏi kỹ thuật,” có thể biến thành một huyền thoại liên máy tính. Nếu chúng ta không loại bỏ thiên kiến ngay từ đầu, máy tính vẫn có thể duy trì và phóng đại nó.
Nhưng loại bỏ thiên kiến thuật toán có thể cũng khó khăn như loại bỏ thiên kiến con người. Khi một thuật toán đã được huấn luyện, phải mất rất nhiều thời gian và công sức để “giải huấn luyện” nó. Hay chúng ta có thể đơn giản quyết định loại bỏ thuật toán có thiên kiến và đào tạo một thuật toán hoàn toàn mới dựa trên một tập hợp dữ liệu mới ít thiên kiến hơn, Nhưng ở nơi nào trên đời chúng ta có thể tìm thấy một tập hợp dữ liệu hoàn toàn không có những điều ấy?
Nhiều thành kiến thuật toán được khảo sát trong chương này và các chương trước chia sẻ cùng một vấn đề cơ bản: máy tính điện toán nghĩ nó đã phát hiện ra một số sự thật về con người, trong khi thực tế nó đã áp đặt khuôn khổ, trật tự lên họ. Một thuật toán truyền thông mạng xã hội nghĩ nó đã phát hiện ra việc con người thích sự phẫn nộ, trong khi thực tế chính thuật toán đã tạo điều kiện cho con người tạo ra và tiêu thụ nhiều nội dung cuồng nộ hơn. Một mặt, những thiên kiến như vậy hình thành từ việc máy tính tiêu giảm toàn bộ phổ năng lực cảm xúc của con người; và mặt khác, vì máy tính đánh giá thấp sức mạnh gây ảnh hưởng lên con người của chính chúng. Ngay cả khi máy tính quan sát thấy gần như mọi con người đều cư xử theo một cách cụ thể thì đâu có nghĩa là con người bị ràng buộc phải cư xử như vậy. Có thể nó chỉ cho thấy các máy tính đang tưởng thưởng cho hành vi này, trong khi trừng phạt và ngăn chặn các hành vi thay thế khả dĩ. Để máy tính có cái nhìn chính xác và có trách nhiệm hơn về thế giới, chúng cần tính đến sức mạnh và tác động của chính chúng. Và để điều đó xảy ra, những người hiện đang thiết kế máy tính cần chấp nhận rằng họ không chỉ đang sản xuất ra những công cụ mới. Họ đang phóng thích ra xã hội các loại tác tử độc lập mới, và thậm chí có khả năng là những vị thần mới.