Trí tuệ nhân tạo (AI) - Chuyên đề 4: Introduction to Responsible AI (Giới thiệu về AI có trách nhiệm)
Chuyên đề 4:
Introduction to Responsible AI (Giới thiệu về AI có trách nhiệm)
Mục tiêu: Giúp bạn hiểu đúng, dùng đúng
và tránh các sai lầm khi ứng dụng AI, đặc biệt là các rủi ro về đạo đức và
thiên kiến.
Thời lượng đề xuất: ~1 giờ.
Đối tượng: Người đang/chuẩn bị dùng
AI cho kinh doanh, đào tạo, sáng tạo nội dung.
1. Tiêu đề: Introduction to Responsible AI
- Hiểu
Đúng - Dùng Đúng - Tránh Sai Lầm
- Khi
chúng ta ngày càng phụ thuộc vào AI, sức mạnh của nó cũng đi kèm với trách
nhiệm to lớn. Một quyết định sai lầm từ AI có thể gây ra những hậu quả
nghiêm trọng. Chuyên đề này không nói về code hay thuật toán, mà nói về
các nguyên tắc, rủi ro và cách tiếp cận đúng đắn để đảm bảo chúng ta sử dụng
AI một cách công bằng, an toàn và có lợi cho xã hội.
2. Tại sao chúng ta cần nói về "Trách Nhiệm"?
- Tầm
ảnh hưởng sâu rộng của AI: AI không còn là công nghệ
trong phòng thí nghiệm. Nó đang hiện diện trong cuộc sống hàng ngày:
- Kinh
tế: AI quyết định ai được duyệt vay tín dụng.
- Xã
hội: Thuật toán AI đề xuất tin tức bạn đọc, video bạn xem,
định hình quan điểm của bạn.
- Y
tế: AI hỗ trợ bác sĩ trong việc chẩn đoán bệnh từ hình ảnh
y tế.
- Tuyển
dụng: AI sàng lọc hồ sơ ứng viên.
- …
- Hậu
quả của AI "vô trách nhiệm":
- Phân
biệt đối xử: Một hệ thống AI tuyển dụng có thể học được
các định kiến vô thức. Ví dụ nó sẽ loại bỏ hồ sơ của phụ nữ hoặc các nhóm
thiểu số nếu chúng ta làm việc này một cách vô thức và AI nó ngầm hiểu đây
là “luật”.
- Lan
truyền tin giả: AI có thể được dùng để tạo ra thông tin
sai lệch một cách hàng loạt, gây bất ổn xã hội.
- Vi
phạm quyền riêng tư: Dữ liệu cá nhân dùng để huấn luyện
AI có thể bị rò rỉ hoặc lạm dụng.
- Định
nghĩa Responsible AI (AI có trách nhiệm):
Đây là một khuôn khổ (framework) bao gồm các nguyên tắc, thực hành và kỹ
thuật nhằm đảm bảo các hệ thống AI được thiết kế, phát triển và triển khai
một cách có đạo đức. Mục tiêu cuối cùng là xây dựng sự tin tưởng và đảm bảo
AI phục vụ lợi ích tốt nhất của con người.
3. "AI có trách nhiệm" là gì? Các nguyên tắc cốt lõi
Đây là những trụ cột chính mà các tổ chức lớn như Google,
Microsoft và nhiều nơi khác đều tuân theo:
- Công
bằng (Fairness): Đảm bảo rằng các quyết định của AI không tạo
ra hoặc củng cố các định kiến bất công đối với các cá nhân hoặc nhóm người
dựa trên các đặc điểm nhạy cảm như chủng tộc, giới tính, tuổi tác, tôn
giáo.
- Minh
bạch & Diễn giải được (Transparency & Explainability):
Chúng ta phải có khả năng hiểu được cách AI đưa ra quyết định. Nếu một AI
từ chối đơn xin vay của bạn, nó phải có khả năng giải thích lý do (ví dụ:
"dựa trên điểm tín dụng thấp và tỷ lệ nợ trên thu nhập cao"),
thay vì chỉ đưa ra câu trả lời "không" một cách bí ẩn.
- Bảo
mật & Quyền riêng tư (Privacy & Security):
Các hệ thống AI phải được xây dựng với các biện pháp bảo mật mạnh mẽ để bảo
vệ dữ liệu mà chúng xử lý. Quyền riêng tư của người dùng phải được tôn trọng,
và họ cần được biết dữ liệu của mình được sử dụng như thế nào.
- Đáng
tin cậy & An toàn (Reliability & Safety):
AI phải hoạt động một cách nhất quán và như mong đợi. Trong các lĩnh vực
quan trọng như xe tự lái hay y tế, AI phải có các cơ chế an toàn để ngăn
ngừa các sai sót có thể gây hại.
- Trách
nhiệm giải trình (Accountability): Phải có con người và quy
trình chịu trách nhiệm cho hoạt động của hệ thống AI. Khi có sự cố xảy ra,
phải rõ ràng ai là người chịu trách nhiệm kiểm tra, sửa chữa và đền bù thiệt
hại.
1. Rủi ro đạo đức
#1: Thiên kiến (Bias)
Đây là một trong những rủi ro phổ biến và khó giải quyết nhất.
- Nguồn
gốc của thiên kiến: AI học từ thế giới thực, và thế giới
thực vốn đầy rẫy những định kiến của con người. Nếu dữ liệu được dùng để
huấn luyện AI phản ánh những định kiến này, AI sẽ coi chúng là "sự thật"
và khuếch đại chúng.
- Ví
dụ 1: Thiên kiến trong tuyển dụng. Nếu một công ty trong
quá khứ chủ yếu tuyển dụng nam giới cho các vị trí kỹ thuật, dữ liệu tuyển
dụng của họ sẽ phản ánh điều này. Khi dùng dữ liệu này để huấn luyện một
AI sàng lọc hồ sơ, AI có thể học được một quy luật sai lầm rằng "nam
giới là ứng viên tốt hơn cho vị trí kỹ thuật" và tự động hạ điểm các
hồ sơ của ứng viên nữ.
- Ví
dụ 2: Thiên kiến trong nhận dạng hình ảnh.
Nếu một hệ thống nhận dạng khuôn mặt được huấn luyện chủ yếu bằng hình ảnh
của người da trắng, nó có thể hoạt động kém chính xác hơn khi nhận dạng
người da màu, dẫn đến những sai sót nghiêm trọng.
- Ví
dụ 3: Thiên kiến trong ngôn ngữ. Khi được yêu cầu hoàn
thành câu "Người đàn ông làm việc như một ___, trong khi người phụ nữ
làm việc như một ___", một mô hình ngôn ngữ cũ có thể điền vào
"bác sĩ" và "y tá", phản ánh các khuôn mẫu nghề nghiệp
trong xã hội.
- Sức
mạnh của AI tạo sinh: Công nghệ này giúp việc tạo ra nội
dung giả mạo trở nên dễ dàng, nhanh chóng và cực kỳ thuyết phục.
- Deepfake:
Video hoặc âm thanh giả mạo, trong đó khuôn mặt hoặc giọng nói của một
người được ghép vào một người khác. Điều này có thể được dùng để tạo ra
các video giả mạo các chính trị gia phát biểu những điều sai sự thật, hoặc
để tống tiền, bôi nhọ danh dự cá nhân.
- Bài
báo giả: AI có thể viết hàng loạt các bài báo với
văn phong chuyên nghiệp nhưng chứa đựng thông tin hoàn toàn bịa đặt để
thao túng dư luận hoặc tấn công các công ty.
- Hậu
quả: Sự xói mòn niềm tin vào thông tin. Khi mọi thứ đều có
thể bị làm giả, người dân sẽ khó phân biệt được đâu là thật, đâu là giả,
gây ra sự hoang mang và bất ổn. Vì vậy, kỹ năng tư duy phản biện và kiểm
chứng nguồn tin trở nên quan trọng hơn bao giờ hết.
Rủi ro đạo
đức #3: Quyền riêng tư
- AI
"đói" dữ liệu: Các mô hình AI, đặc biệt
là các mô hình lớn, cần một lượng dữ liệu khổng lồ để huấn luyện. Dữ liệu
này thường được thu thập từ hoạt động của người dùng trên Internet.
- Các
câu hỏi về quyền riêng tư:
- Dữ
liệu cá nhân của bạn (email, tin nhắn, lịch sử tìm kiếm) có được sử dụng
để huấn luyện AI không?
- Dữ
liệu đó có được ẩn danh hóa đúng cách không?
- Liệu
AI có thể vô tình làm rò rỉ thông tin nhạy cảm của bạn trong các câu trả
lời của nó không? Ví dụ, nếu bạn dán thông tin bí mật của công ty vào một
chatbot công cộng, thông tin đó có thể bị lưu trữ và sử dụng.
- Lời
khuyên: Hãy luôn cẩn trọng với những thông tin bạn
cung cấp cho các hệ thống AI. Không bao giờ nhập thông tin cá nhân nhạy cảm,
dữ liệu tài chính, hoặc bí mật kinh doanh vào các công cụ AI công cộng, trừ
khi bạn đã đọc kỹ và tin tưởng vào chính sách bảo mật của họ.
5. Google thiết kế AI an toàn và minh bạch như thế nào?
Các công ty công nghệ lớn nhận thức rõ trách nhiệm của mình
và đang nỗ lực giải quyết các vấn đề này.
- Công
bố các Nguyên tắc AI (AI Principles): Năm 2018, Google
đã công bố một bộ nguyên tắc làm kim chỉ nam cho việc phát triển AI. Các
nguyên tắc này bao gồm cam kết xây dựng AI có lợi cho xã hội, tránh tạo ra
thiên kiến bất công, và đảm bảo an toàn. Đáng chú ý, Google cam kết không
theo đuổi các ứng dụng AI trong lĩnh vực vũ khí hoặc giám sát vi phạm các
chuẩn mực quốc tế.
- Phát
triển công cụ kiểm tra nội bộ: Google xây dựng các công
cụ như "Model Cards" và "Data Cards" để cung cấp thông
tin minh bạch về cách một mô hình AI được xây dựng, dữ liệu huấn luyện của
nó, và các hạn chế của nó. Họ cũng phát triển các kỹ thuật để phát hiện và
giảm thiểu thiên kiến trong các tập dữ liệu.
- "Watermarking"
cho nội dung do AI tạo ra: Google đang nghiên cứu và
triển khai các công nghệ như SynthID, một công cụ để nhúng một dấu hiệu kỹ
thuật số (watermark) không thể nhìn thấy bằng mắt thường vào các hình ảnh
do AI tạo ra. Điều này giúp các hệ thống khác có thể xác định được nguồn gốc
của hình ảnh, góp phần chống lại tin giả.
- Lấy
người dùng làm trung tâm: Quá trình thiết kế sản phẩm
AI luôn có sự tham gia của các nhà đạo đức học, nhà xã hội học, và các
chuyên gia nhân quyền để đánh giá các tác động tiềm tàng của công nghệ đối
với con người trước khi ra mắt.
6. Trách nhiệm của người dùng - Cách ra prompt không gây sai lệch
Người dùng cũng đóng một vai trò quan trọng trong việc định
hướng AI.
- Ví
dụ về prompt có thể gây sai lệch:
- Prompt
tệ: "Hãy tạo một hình ảnh của một CEO trong phòng họp."
- Kết
quả có thể xảy ra: AI, dựa trên dữ liệu lịch sử chứa
nhiều hình ảnh CEO là nam giới da trắng, có thể sẽ tạo ra một hình ảnh
như vậy, vô tình củng cố khuôn mẫu.
- Ví
dụ về prompt tốt hơn, trung lập và bao hàm:
- Prompt
tốt: "Hãy tạo một loạt hình ảnh mô tả các CEO đa dạng
đang lãnh đạo một cuộc họp. Hãy thể hiện sự đa dạng về giới tính, chủng tộc
và độ tuổi."
- Kết
quả mong muốn: Một bộ sưu tập hình ảnh phản ánh đúng hơn
sự đa dạng của thế giới thực.
- Mẹo
thực hành:
- Hãy
cụ thể: Thay vì yêu cầu chung chung, hãy nêu rõ
các yêu cầu về sự đa dạng và trung lập.
- Tránh
các từ ngữ khuôn mẫu: Cẩn thận với các tính từ hoặc danh từ
có thể gợi ý về các định kiến.
- Yêu
cầu nhiều góc nhìn: Khi nghiên cứu một vấn đề, hãy yêu cầu
AI: "Hãy trình bày các lập luận ủng hộ và phản đối vấn đề X." để
có cái nhìn cân bằng.
7. Checklist sử dụng AI có trách nhiệm
Trước khi sử dụng hoặc chia sẻ nội dung do AI tạo ra, hãy tự
hỏi mình những câu sau:
- [
] Kiểm chứng (Verify): Thông tin này có chính xác không? Tôi
đã kiểm tra nó với một nguồn đáng tin cậy khác chưa?
- [
] Minh bạch (Disclose): Nếu tôi sử dụng nội dung
này trong công việc hoặc xuất bản nó, tôi có nên cho mọi người biết rằng
nó được tạo ra với sự hỗ trợ của AI không? (Câu trả lời thường là
"có").
- [
] Công bằng (Assess for Bias): Liệu kết quả này có vô
tình xúc phạm, loại trừ hoặc gây hại cho bất kỳ nhóm người nào không? Nó
có củng cố một khuôn mẫu tiêu cực nào không?
- [
] Bảo mật (Protect Privacy): Tôi có đang nhập bất kỳ
thông tin cá nhân, bí mật hoặc nhạy cảm nào vào công cụ AI này không?
- [
] Mục đích (Check Intent): Tôi đang sử dụng AI cho một
mục đích xây dựng và tích cực hay không?
8. Tóm tắt & Q&A
- Kết
luận chính: AI có trách nhiệm không phải là một lựa chọn,
mà là một yêu cầu bắt buộc để công nghệ này phát triển bền vững và mang lại
lợi ích cho toàn xã hội.
- Trách
nhiệm của mọi người: Trách nhiệm này không chỉ thuộc về
các nhà phát triển AI, mà còn thuộc về các nhà quản lý, các nhà hoạch định
chính sách, và chính những người dùng cuối như chúng ta.
- Lời
khuyên: Hãy trở thành một người dùng AI có ý thức.
Luôn đặt câu hỏi, luôn kiểm chứng, và luôn suy nghĩ về tác động của những
gì bạn tạo ra. Hãy là một phần của giải pháp, giúp định hướng AI theo một
con đường tích cực.
- Câu
hỏi & Thảo luận
Nhận xét
Đăng nhận xét