Hoàng Bảo Anh
Thành viên

Câu trả lời của nhóm nghiên cứu MIT DCI:Khi AI ngày càng nắm quyền quyết định, liệu chúng ta có thể tin tưởng rằng một AI tập trung, do một công ty kiểm soát, sẽ không làm điều tệ hại?
"Không. Nhưng AI phi tập trung cũng không đương nhiên tốt hơn. Ta cần thiết kế lại cách quản trị và hạ tầng AI."

Rủi ro | Mô tả |
---|---|
![]() | Các BigTech sở hữu mô hình, dữ liệu, hạ tầng |
![]() | Không ai ngoài họ hiểu AI quyết định dựa trên gì |
![]() | Có thể bị áp đặt định kiến, kiểm duyệt dữ liệu |
![]() | AI chạy ở backend, người ngoài không thể kiểm tra |

AI phi tập trung là một mô hình trong đó:
Dữ liệu, mô hình, tính toán được phân phối trên mạng (ví dụ: blockchain, IPFS, federated learning)
Nhiều bên có thể cùng đóng góp & cùng kiểm soát
Quá trình huấn luyện, inference có thể audit & tái hiện
Ví dụ các nền tảng DAI:
- Ocean Protocol (chia sẻ dữ liệu AI phi tập trung)
- Fetch.ai (agent AI trên blockchain)
- Bittensor (mạng lưới học máy mở)

Ưu điểm | Giải thích |
---|---|
![]() | Tất cả hoạt động AI đều có thể kiểm chứng on-chain |
![]() | Không một thực thể nào có thể chặn/cấm truy cập |
![]() | Nhiều mô hình, nhiều nguồn dữ liệu = đa dạng hóa |
![]() | AI có thể “đấu trí” với nhau → nâng cao chất lượng |

- Lưu trữ bằng chứng huấn luyện (model checkpoint, weights hash)
- Giao dịch dữ liệu & AI model bằng smart contract
- Tạo thị trường AI open-source (Data-as-a-Service, Model-as-a-Service)
- Giúp quản trị phi tập trung (DAO điều hành mạng AI)

MIT DCI chỉ ra rằng: Phi tập trung không tự động = an toàn.
Vấn đề tiềm ẩn | DAI cũng có |
---|---|
![]() | Một người tạo nhiều node để kiểm soát mạng AI |
![]() | AI chất lượng thấp, nhiễu tràn ngập |
![]() | Dữ liệu đào tạo bị tiêm độc (data poisoning) |
![]() | Không có đồng thuận về chất lượng hoặc đạo đức |

Họ đề xuất mô hình gọi là Trust Layer:"Cần có một cơ chế điều phối vừa minh bạch (blockchain) vừa có trách nhiệm (AI governance)." – MIT DCI
AI chạy phân tán, nhưng có một lớp đồng thuận ghi nhận & đánh giá model
Governance Layer đưa ra các tiêu chuẩn đạo đức, kỹ thuật, audit
AI không thể deploy nếu chưa được đánh giá chất lượng, tránh bias/toxic

- AI Chatbot phi tập trung:
→ Người dùng chọn mô hình phù hợp từ DAO (ví dụ: “nói thật”, “nói đạo đức”, “tư bản chủ nghĩa”)
- AI y tế:
→ Mô hình huấn luyện trên nhiều bệnh viện khác nhau (federated learning) nhưng kiểm chứng bằng ZK proof - AI sáng tạo nội dung:
→ Mỗi nghệ sĩ “dạy” AI phong cách của mình và nhận phần thưởng nếu AI dùng được – reward được ghi nhận bằng blockchain

- MIT DCI: https://www.dci.mit.edu/research
- Bài gốc: Is Decentralized AI Safer?, arXiv:2201.05383 (2022)
- Ocean Protocol, Bittensor, SingularityNET, Fetch.ai – các dự án đi đầu trong DAI

AI phi tập trung không phải là thuốc tiên, nhưng là một hướng đi đầy triển vọng trong việc tạo ra trí tuệ nhân tạo có thể kiểm chứng, minh bạch và công bằng hơn.
Để đạt được điều đó, ta cần:
- Blockchain làm “sổ cái hành vi AI”
- DAO làm cơ quan “giám sát đạo đức AI”
- Và cộng đồng cùng nhau tạo ra AI vì con người, không vì quyền lực.