Tóm tắt nội dung
“Tư duy nhanh và chậm” bàn về con người và cách chúng ta ra quyết định. Tác phẩm cho rằng bộ não vận hành theo hai hệ thống tách biệt:
Cuốn sách phân tích rất sâu về cách sự tách biệt này ảnh hưởng đến quyết định của chúng ta và những dạng thiên kiến nhận thức nảy sinh từ “kiến trúc” của bộ não.
Vì sao bạn nên đọc?
Chúng ta đang sống trong một thế giới ngập tràn thông tin và đòi hỏi ra quyết định tức thì. Sự quá tải cảm giác này càng phơi bày điểm yếu của Hệ thống 1, khiến ta dễ rơi vào các phán đoán tự động, thiếu tư duy phản biện. “Tư duy nhanh và chậm” chính là liều thuốc giải. Nghiên cứu về các thiên kiến giúp tôi biết lùi lại một bước, đặt câu hỏi về phản ứng tự động của mình và đưa ra lựa chọn tốt hơn (phần lớn những gì tôi viết ra đều bắt đầu từ việc tự hỏi: “Câu chuyện phổ biến ngoài kia có thực sự hợp lý không?”). Cuốn sách cũng vô cùng khiêm nhường, theo nghĩa nó khiến bạn nhận ra mình dễ sai đến mức nào.
Cách đọc cuốn “Tư duy nhanh và chậm”
Sách đi rất sâu vào các thí nghiệm và ý nghĩa của chúng, nên có thể hơi nặng nề. Đây không phải loại sách đọc trong một ngày/cuối tuần (trừ khi bạn rất hứng thú với thiết kế thí nghiệm). Tôi khuyên bạn nên đọc rải rác trong nhiều tháng, quay lại thường xuyên để nghiên cứu từng thiên kiến và thí nghiệm. Tôi cũng rất thích thú khi thử phân tích, chỉ ra những hạn chế trong thiết kế thí nghiệm, rồi nghĩ cách mình sẽ cải tiến nó. Lợi ích lớn nhất mà tôi nhận được là khi tôi bắt đầu nhận ra cách các chiến dịch PR/truyền thông/marketing ngoài kia khai thác các thiên kiến này để thuyết phục chúng ta tin và làm theo thông điệp của họ.
Nếu không có cuốn sách này, tôi chắc hẳn sẽ dễ bị cuốn theo những câu chuyện lặp đi lặp lại, đầy sự cường điệu nhưng sai lệch – thứ mà chúng ta thường bàn đến trong “hội” của mình. Trong phần còn lại của bài viết, tôi muốn chia sẻ một số nhận thức quan trọng nhất mà “Tư duy nhanh và chậm” đã giúp tôi đạt được (trực tiếp hoặc gián tiếp).
Hệ thống 1 vs Hệ thống 2 và việc hiểu về các thiên kiến
Hệ thống 1 là chế độ mặc định của chúng ta - nhanh, tự động và không tốn nhiều nỗ lực. Nó vận hành dựa trên trực giác, cảm xúc và các khuôn mẫu đã học được. Dưới đây là một số đặc điểm chính của Hệ thống 1:
Hệ thống 2 là cách tư duy tốn năng lượng và có chủ đích hơn. Một vài điểm khác biệt:
Cách hai hệ thống này tương tác sẽ quyết định cách chúng ta suy nghĩ.
Cách các thiên kiến nhận thức định hình sự tương tác trong các hệ thống của chúng ta
Mặc dù hai hệ thống này hoạt động cùng nhau, Hệ thống 1 thường là bên dẫn dắt. Nó hiệu quả và giúp não bộ chúng ta tránh bị sa lầy liên tục trong tình trạng “tê liệt phân tích”. Điều này đạt được nhờ việc sử dụng các thiên kiến nhận thức.
Mặc dù thiên kiến thường bị coi như một từ ngữ mang nghĩa xấu, thực ra chúng là một hiện tượng trung tính về giá trị. Từ góc nhìn lý thuyết thông tin, một thiên kiến đơn giản là một lối tắt mà một mô hình ra quyết định (dù là não người hay trí tuệ nhân tạo) sử dụng để ưu tiên và xử lý thông tin. Điều này có thể mang tính tích cực (ví dụ: không ăn thứ gì đó vì nó có mùi lạ), trung tính (ví dụ: tôi thích sữa socola), hoặc tiêu cực (ví dụ: thiên kiến chủng tộc).
Sự khác biệt lớn giữa thiên kiến của con người và của AI chỉ đơn giản nằm ở nguồn gốc: thiên kiến của con người mang tính cấu trúc, còn thiên kiến của AI lại cho chúng ta biết điều gì đó sâu hơn về dữ liệu của nó.
Theo cách nói trong lĩnh vực AI, Hệ thống 1 giống như một bộ kiểm tra đơn giản, trong khi Hệ thống 2 giống như một mô hình Học sâu (Deep Learning) mạnh mẽ hơn nhiều. Tuy nhiên, vai trò của Hệ thống 1 không chỉ dừng lại ở đó. Trong hầu hết các trường hợp, Hệ thống 1 còn hoạt động như một bộ trích xuất đặc trưng/Data Pipeline, trực tiếp cung cấp dữ liệu đầu vào cho Hệ thống 2. Dưới đây là hai cách chính mà điều này diễn ra:
Chúng ta có thể dành trọn cả đời người để nghiên cứu lý do tại sao bạn (vâng, chính bạn), mẹ bạn, và Ban chuyển nhượng của Manchester United lại là “bộ ba thần thánh” trong việc ra những quyết định tệ hại. Nhưng điều đó sẽ đòi hỏi tôi phải xem quá nhiều clip Anthony xoay vòng, nên tôi xin phép bỏ qua. May mắn thay, những chuyên gia về rủi ro như Filippo Marino đã dành cả đời để trả lời câu hỏi này.
“Khả năng đánh giá rủi ro của chúng ta thường bị che mờ bởi thiên hướng bản năng dành cho những sự kiện kịch tính và đáng nhớ. Chẳng hạn, các vụ tấn công khủng bố, dù tương đối hiếm, vẫn luôn ám ảnh mạnh mẽ trong ý thức tập thể. Đây là kết quả của “heuristic tính sẵn có” (availability heuristic) - một lối tắt nhận thức khiến chúng ta phóng đại khả năng xảy ra của những sự kiện gây chú ý và dễ nhớ, đồng thời xem nhẹ hoặc bỏ qua những rủi ro từ các tình huống phổ biến hơn nhưng trên thực tế lại nguy hiểm hơn về mặt thống kê.
Tương tự, phán đoán của chúng ta cũng thường bị bóp méo bởi “bỏ qua tỉ lệ gốc” (base rate neglect) - xu hướng bỏ qua thông tin thống kê tổng quát để tập trung vào những câu chuyện cụ thể, có tính giai thoại. Với thiên kiến này, trải nghiệm gần đây của ta khi đến một thành phố nước ngoài, chẳng hạn, có thể được xem là quan trọng hơn so với các số liệu dự báo tốt hơn như tỷ lệ tội phạm bạo lực hoặc tai nạn giao thông.
Trong cả hai trường hợp, việc đánh giá rủi ro theo bản năng đều không đạt yêu cầu, cho thấy sự cần thiết của các quy trình ra quyết định dựa trên dữ liệu đáng tin cậy và phân tích hợp lý.” - Beyond Instinct, tác giả Filippo Marino. The Safe-Esteem trên Substack là một “mỏ vàng” giúp bạn hiểu về các thiên kiến nhận thức và cách chúng thường làm sai lệch khả năng đánh giá rủi ro của chúng ta.
Bây giờ, hãy cùng nói về một số ý tưởng mạnh mẽ nhất được đề cập trong Tư duy nhanh và chậm.
Thiên kiến, Hiện tượng và Khung
Hồi quy về trung bình (Reversion to the Mean)
“Hồi quy về trung bình” mô tả xu hướng thống kê rằng những kết quả hoặc sự kiện cực đoan thường sẽ được nối tiếp bằng những kết quả ít cực đoan hơn, cho đến khi mọi thứ hội tụ trở lại mức trung bình. Nghe thì có vẻ hiển nhiên, nhưng việc hiểu rõ tác động của hiện tượng này lại là yếu tố then chốt với bất kỳ ai ra quyết định (đặc biệt là những người làm việc với dữ liệu).
Vì sao lại xảy ra?
Có một số yếu tố góp phần vào hiện tượng hồi quy về trung bình:
Vì sao điều này quan trọng?
Hiểu về hồi quy về trung bình giúp tránh những sai lầm lập luận trong nhiều lĩnh vực:
Tôi đã mất khá nhiều thời gian mới thấm được khái niệm này, nhưng giờ thì tôi thấy nó ở khắp mọi nơi (kể cả trong các con số khi tôi viết lách).
Ác cảm mất mát (Loss Aversion)
Một điều đã thay đổi cách tôi nhìn nhận về việc chấp nhận rủi ro là nghiên cứu của Kahneman về ác cảm mất mát. Động lực để chúng ta tránh mất mát mạnh gấp 2,5 lần so với động lực tìm kiếm lợi ích có cùng mức độ.
Điều này có thể bắt nguồn từ bối cảnh tiến hóa (trong rừng, mạo hiểm quá nhiều có thể dẫn tới cái chết, và những người sống sót thường là người thận trọng). Chúng ta đã “kế thừa” xu hướng này, ngay cả khi nó không còn hoàn toàn phù hợp với thế giới hiện đại.
Hiểu về ác cảm mất mát đã giúp tôi “giải phóng” bản thân ở một khía cạnh nào đó, khiến tôi sẵn sàng thử nghiệm nhiều hơn trong công việc lẫn đời sống cá nhân.
Thiên kiến neo (Anchoring Bias)
Chúng ta có xu hướng bị “mắc kẹt” vào thông tin đầu tiên được đưa ra (tức là “mỏ neo”). Đây là một kỹ thuật thường được dùng trong đàm phán lương để đưa ra mức đề nghị thấp hơn kỳ vọng của ứng viên. Ngược lại, các tổ chức bán hàng cũng áp dụng chiêu này để “neo” khách hàng vào mức giá cao trước khi đưa ra ưu đãi.
Hai điều về hiệu ứng neo đã thực sự khiến tôi bất ngờ:
“Các câu trả lời từ mô hình AI có thể kích hoạt thiên kiến neo và ảnh hưởng đến quyết định. Một câu trả lời ban đầu từ công cụ AI có thể khiến người dùng “bám” vào nó, hình thành nhận thức lệch lạc, bỏ qua các giải pháp tiềm năng khác và giới hạn khả năng lựa chọn.
Khi đã tiếp nhận một thông tin ban đầu, việc thiếu thời gian và bận rộn nhiều việc được cho là nguyên nhân dẫn đến việc điều chỉnh không đủ (tức là vẫn bám vào mỏ neo). Tuy nhiên, điều này có thể tránh được nếu ta dành thêm thời gian và nỗ lực để không vội kết luận.
Một nghiên cứu của Rastogi và cộng sự cho thấy: khi con người dành nhiều thời gian suy nghĩ kỹ về các câu trả lời mà AI đưa ra, họ sẽ đi xa hơn khỏi mỏ neo, từ đó giảm tác động của nó lên quyết định.” - The Decision Lab
Hiệu ứng đóng khung (Framing Effects)
Cách thông tin được trình bày (tức là “khung”) có thể ảnh hưởng mạnh mẽ đến cách chúng ta nhận thức và ra quyết định. Điều này một lần nữa mang đến những hàm ý thú vị khi xem xét các thông điệp truyền thông và cách chúng cố gắng tinh tế thao túng nhận thức.
“Trong một nghiên cứu với sinh viên đại học, người tham gia được đưa ra một bài toán ra quyết định trong y khoa, với cùng một dữ kiện nhưng được mô tả bằng khung tích cực và khung tiêu cực. Câu trả lời được ghi nhận trên thang Likert 6 điểm, từ 1 (rất tệ) đến 6 (rất tốt).
Kết quả cho thấy cách đóng khung đã ảnh hưởng đến đánh giá: khi hiệu quả của thuốc được mô tả bằng “khung mất mát” (30 bệnh nhân không khỏi), người tham gia đưa ra đánh giá tiêu cực. Khi hiệu quả được mô tả bằng “khung lợi ích” (70 bệnh nhân khỏi), họ đưa ra đánh giá tích cực.”
Nhiều nhà nghiên cứu AI và marketer hiểu rất rõ điều này, và cố tình đặt tên cho các bộ kiểm thử (benchmark) hoặc công nghệ của họ sao cho dễ hướng người khác đến những quyết định có lợi cho mình.
Lấy ví dụ bộ kiểm thử TruthfulQA. Chỉ riêng cái tên đã khiến nhiều người coi đây là bài test cho “alignment” (mức độ tuân thủ/đúng đắn của AI), mà không biết đến những giới hạn của nó. Nhà nghiên cứu kiêm YouTuber Yannic Kilcher từng có một màn trình diễn rất rõ về điểm yếu này: anh ấy tinh chỉnh một mô hình LLM bằng dữ liệu từ 4-Chan, và kết quả là mô hình này đạt điểm cao nhất trong bộ kiểm thử TruthfulQA.
Tuy nhiên, một bộ phận trong cộng đồng “AI Safety” đã phản ứng dữ dội, dẫn đến một loạt bài viết đưa tin rất một chiều về vụ việc. Bot của Yannic bị gắn nhãn là “máy tạo ngôn từ thù ghét” (hate-speech machine). Cuối cùng, lùm xùm này khiến HuggingFace phải khóa quyền truy cập mô hình đó (đến nay, theo tôi biết, các vấn đề của TruthfulQA mà mô hình này chỉ ra vẫn chưa được giải quyết).
Chỉ để bạn biết: Việc chứng kiến đủ loại lập luận “người rơm” (strawman argument) mà phe AI Safety/Ethics tạo ra, cộng với sự từ chối liên tục của họ khi phải tham gia tranh luận thiện chí, và cả sự nhu nhược của giới học thuật AI khi không dám chỉ trích hành vi quá đáng của nhóm Ethics, là một trong những lý do lớn nhất khiến tôi quyết định không học tiếp tiến sĩ hay theo đuổi chức giáo sư (tôi vốn bắt đầu viết lách chỉ để phục vụ con đường học thuật của mình).
Một lần nữa, chỉ cần nhìn vào cách truyền thông của phe “AI Doomer” (những người bi quan cực đoan về AI) là bạn sẽ thấy vô số ví dụ về việc họ đóng khung AI như một mối nguy ngang hàng với chiến tranh hạt nhân, đại dịch hay biến đổi khí hậu. Cách đóng khung này nhằm khơi gợi nỗi sợ bản năng, để người nghe dễ đồng ý với họ hơn. Bất kỳ thông điệp nào mang nặng yếu tố “vận động hành lang” (agenda-heavy communication) gần như chắc chắn sẽ sử dụng nhiều kiểu đóng khung khác nhau để thao túng ý kiến công chúng.
Heuristic về tính sẵn có (Availability Heuristic)
“Lặp lại một lời nói dối đủ nhiều lần, nó sẽ trở thành sự thật.” - Goebbels
Chúng ta thường đánh giá khả năng xảy ra hoặc tần suất của một sự việc dựa vào việc những ví dụ liên quan dễ dàng xuất hiện trong đầu đến mức nào, chứ không dựa vào tỷ lệ thực tế của nó. Điều này thường dẫn đến việc đánh giá sai xác suất thực.
Heuristic này đặc biệt nguy hiểm khi kết hợp với mạng xã hội. Bản chất của mạng xã hội là ưu tiên đẩy những nội dung hoặc người sáng tạo có tính cực đoan, gây sốc. Những người dành nhiều thời gian online dễ mắc sai lầm khi đồng nhất những “trường hợp dị biệt” này với “chuẩn mực”, rồi từ đó cảm thấy tệ về bản thân khi so sánh.
Những kẻ lừa đảo tài chính thường tận dụng điều này bằng cách liên tục “tấn công” những người thiếu hiểu biết về tài chính bằng quảng cáo và hình ảnh về lối sống xa hoa, khiến họ hoang mang và cuối cùng bị lừa mua sản phẩm/đầu tư.
Điều điên rồ ở chỗ là nguyên tắc suy đoán này thậm chí… không cần phải đúng. Những “thương nhân thổi phồng AI” (cả phe tích cực lẫn tiêu cực) đã dùng chiến thuật này để xây dựng tên tuổi, gieo rắc nỗi sợ cho hàng triệu người, và bán ra “liều thuốc chữa” cho những vấn đề… vốn chẳng ai gặp phải. Mấu chốt là tạo ra một “buồng vang vọng” (echo chamber) — nơi cùng một thông điệp được lặp đi lặp lại liên tục. Phần lớn mọi người không có đủ “băng thông nhận thức” để dừng lại, lùi một bước và tự đánh giá các tuyên bố này (đặc biệt khi nó được nói ra bởi những “chuyên gia”).
Các chuyên gia này cũng thường kết hợp chiêu này với “đồng thuận giả” (false consensus) và “bằng chứng xã hội” (social proof) để né tránh những phản biện trí tuệ.
Trên Internet, và trong vô số cuộc tranh luận trên mạng xã hội, đây có lẽ là một trong những cú “bẻ lái” nguy hiểm nhất mà bạn cần để mắt tới.
Giờ hãy nói đến một thiên kiến khác thường xuyên xuất hiện trong các cuộc bàn luận về AI.
Nguyên tắc suy đoán dựa trên tính đại diện (Representativeness Heuristic)
Chúng ta đánh giá sự vật hoặc con người dựa trên mức độ giống với một ví dụ điển hình, đôi khi bỏ qua cả xác suất thống kê. Ví dụ: Nếu bạn thấy một người mặc đồ lập dị và đang đọc thơ, bạn có thể dễ nghĩ rằng họ là nhà thơ hơn là kế toán — đơn giản vì diện mạo và hành vi đó hợp với hình mẫu (stereotype) của “nhà thơ” hơn là “kế toán”.
Nhiều cuộc trò chuyện về AGI thường xoay vòng quanh thiên kiến này. Tiến sĩ Bill Lambos, nhà sinh học tính toán, đã đưa ra một nhận xét rất sắc bén về LLM (mô hình ngôn ngữ lớn) và cách chúng sử dụng ngôn ngữ: LLM rất xuất sắc trong việc bắt chước hành vi của trí thông minh và khả năng hiểu ngôn ngữ của con người, nhưng không thể hiện được những yếu tố nền tảng tạo nên trí thông minh.
Trong cuốn sách gần đây, Logan Thornloe đã bày tỏ một quan điểm tương tự về Devin rằng phần lớn sự thổi phồng hoặc lo sợ về việc Devin sẽ thay thế kỹ sư phần mềm xuất phát từ việc nhiều người thực sự không hiểu một kỹ sư phần mềm thực chất làm gì. Vì Devin dường như có thể làm những việc giống kỹ sư phần mềm, mọi người liền cho rằng nó là một sự thay thế hoàn toàn.
“Nhóm vốn được coi là am hiểu công nghệ nhất trong xã hội lại trở thành nhóm sợ hãi nhất trước sự tiến bộ của AI. AI giỏi ở một số tác vụ nhất định, và nó sẽ thay thế những tác vụ đó trong từng công việc trước tiên. Điều này không chỉ xảy ra với ngành phần mềm — hầu hết các ngành nghề đều có những phần việc sẽ sớm được tự động hóa, và còn nhiều phần khác phải mất nhiều thời gian hơn AI mới có thể đảm nhận. Đến khi kỹ sư phần mềm bị thay thế hoàn toàn thì đã có nhiều nghề khác bị thay thế từ trước rồi. Tại sao kỹ sư phần mềm lại là nhóm hoảng loạn nhất về việc AI cướp việc — điều này thì tôi không bao giờ hiểu nổi.
Việc Devin ra mắt đã cho thấy hai điều về đa số kỹ sư phần mềm mà tôi thấy còn thú vị hơn cả chuyện “kỹ sư tự động”:
Trong cả hai trường hợp, ta đều thấy một dạng thiên kiến như sau: AI thực hiện một nhiệm vụ cụ thể liên quan đến một năng lực nào đó, và thế là ta mặc định rằng AI sở hữu luôn năng lực cốt lõi đằng sau nhiệm vụ ấy. Những người theo “thuyết tận thế AI” (AI Doomers) thường dùng cùng một kiểu ngụy biện này khi bàn về việc AI hệ điều hành (OS AI) có thể được dùng để chế tạo vũ khí sinh học.
Hãy nhớ điều này khi bạn quan sát các thông điệp truyền thông. Bạn sẽ nhận ra con người thường xuyên dùng cách này để thao túng dư luận theo hướng có lợi cho họ.
“Tư duy nhanh và chậm” là một cuốn sách mà năm nào tôi cũng quay lại đọc, và mỗi lần nó lại dạy tôi thêm một điều mới. Nội dung dày đặc khiến nó rất đáng đọc lại, vì lần nào cũng phát hiện ra một chi tiết, một sắc thái, hay một ý tưởng mà trước đó tôi bỏ lỡ. Đây là kiểu sách sẽ “bám rễ” trong tâm hồn bạn và vĩnh viễn định hình nó theo một cách khác. Nó làm điều mà mọi tác phẩm vĩ đại đều làm được: dẫn bạn vào một hành trình khám phá chính mình. Nếu bạn chưa có dịp đọc nó, thì bây giờ là lúc thích hợp. Còn nếu bạn đã đọc rồi, hãy chia sẻ cho tôi biết trải nghiệm của bạn với cuốn sách này thế nào.
- Theo Medium