Lớp tin cậy AI: Mạng Mira và giải pháp của nó để giải quyết thiên kiến và ảo giác AI
Gần đây, mạng Mira đã chính thức ra mắt mạng thử nghiệm công cộng, dự án này nhằm xây dựng một lớp tin cậy cho trí tuệ nhân tạo. Vậy, tại sao AI cần được tin cậy? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề về "ảo giác" hoặc sự thiên lệch của AI lại thường bị bỏ qua. Ảo giác của AI, đơn giản mà nói, là AI đôi khi sẽ "bịa ra" thông tin, đưa ra những giải thích có vẻ hợp lý nhưng thực tế lại không chính xác. Ví dụ, nếu hỏi AI tại sao mặt trăng lại có màu hồng, nó có thể cung cấp một loạt các giải thích nghe có vẻ hợp lý nhưng thực tế lại không đúng.
Sự xuất hiện của "ảo giác" hoặc thiên kiến trong AI liên quan đến một số con đường công nghệ AI hiện tại. Ví dụ, AI sinh ra đạt được đầu ra liên kết và hợp lý bằng cách dự đoán nội dung "có khả năng" nhất, nhưng phương pháp này đôi khi khó xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa sai sót, thiên kiến thậm chí là nội dung hư cấu, tất cả những điều này đều ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người, chứ không phải chính sự thật.
Cơ chế sinh xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi sẽ dẫn đến việc AI tạo ra ảo giác. Mặc dù trong các kiến thức phổ thông hoặc nội dung giải trí, vấn đề này có thể không ngay lập tức gây ra hậu quả nghiêm trọng, nhưng trong các lĩnh vực yêu cầu tính chính xác cao như y tế, pháp lý, hàng không, tài chính, nó có thể gây ra ảnh hưởng lớn. Do đó, giải quyết vấn đề ảo giác và thiên kiến của AI trở thành một trong những thách thức cốt lõi trong quá trình phát triển AI.
Dự án Mira đang cố gắng giải quyết vấn đề này. Mục tiêu của nó là xây dựng một lớp tin cậy cho AI, giảm thiểu sự thiên lệch và ảo tưởng của AI, nâng cao độ tin cậy của AI. Vậy Mira thực hiện mục tiêu này như thế nào?
Chiến lược cốt lõi của Mira là xác minh đầu ra của AI thông qua sự đồng thuận của nhiều mô hình AI. Nó về cơ bản là một mạng lưới xác minh, sử dụng sự đồng thuận của nhiều mô hình AI để xác minh độ tin cậy của đầu ra AI. Quan trọng hơn, Mira đã áp dụng phương thức xác minh đồng thuận phi tập trung.
Chìa khóa của mạng Mira nằm ở việc xác thực đồng thuận phi tập trung. Điều này không chỉ tận dụng lợi thế của lĩnh vực tiền mã hóa mà còn giảm thiểu thiên lệch và ảo giác thông qua mô hình xác thực tập thể phối hợp đa mô hình.
Trong cấu trúc xác thực, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác thực độc lập. Các nhà điều hành nút tham gia xác thực các tuyên bố này, và để đảm bảo tính trung thực của các nhà điều hành nút, Mira đã áp dụng cơ chế khuyến khích / trừng phạt kinh tế mã hóa. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng nhau tham gia để đảm bảo tính đáng tin cậy của kết quả xác thực.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng viên thành các tuyên bố có thể xác thực khác nhau, sau đó phân phối cho các nút để xác thực, cuối cùng tổng hợp kết quả để đạt được sự đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối đến các nút khác nhau theo cách phân mảnh ngẫu nhiên.
Các nhà điều hành nút chịu trách nhiệm vận hành mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực. Động lực tham gia xác thực của họ đến từ việc có thể kiếm được lợi nhuận. Những lợi nhuận này xuất phát từ giá trị tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Để ngăn chặn các hành vi đầu cơ phản ứng ngẫu nhiên của các nút, các nút liên tục lệch khỏi sự đồng thuận sẽ bị trừ token đặt cọc.
Tổng thể, Mira cung cấp một cách tiếp cận mới để đạt được độ tin cậy của AI. Nó xây dựng một mạng lưới xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu sự thiên lệch và ảo giác của AI, đồng thời đáp ứng nhu cầu về độ chính xác và độ nhạy cao hơn. Nói ngắn gọn, Mira đang cố gắng xây dựng một lớp tin cậy cho AI, điều này có ý nghĩa quan trọng trong việc thúc đẩy sự phát triển sâu rộng của ứng dụng AI.
Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công cộng của Mira thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira), trải nghiệm đầu ra AI đã được xác thực và có cơ hội kiếm điểm Mira. Điều này cung cấp cho người dùng một cơ hội trực quan để so sánh sự khác biệt giữa đầu ra AI trước và sau khi được xác thực, cho thấy tiềm năng của mạng Mira trong việc nâng cao độ tin cậy của AI.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
16 thích
Phần thưởng
16
6
Chia sẻ
Bình luận
0/400
ChainDetective
· 23phút trước
Lại đang vẽ BTC? Có đáng tin không?
Xem bản gốcTrả lời0
GmGmNoGn
· 6giờ trước
mira đang tăng lưu lượng kol?
Xem bản gốcTrả lời0
RektRecovery
· 6giờ trước
lmao một "tầng tin tưởng" khác sẽ bị rekt trong 3... 2... 1...
Xem bản gốcTrả lời0
SeeYouInFourYears
· 6giờ trước
ai giỏi kể chuyện vậy
Xem bản gốcTrả lời0
hodl_therapist
· 6giờ trước
Khi nào AI có thể tự kiểm tra ảo giác?
Xem bản gốcTrả lời0
GasWastingMaximalist
· 6giờ trước
Lần này tôi sẽ giao dịch bullish để bày tỏ sự tôn trọng.
Mira mạng lưới công khai ra mắt, xây dựng lớp tin cậy AI để giải quyết vấn đề thiên kiến và ảo giác.
Lớp tin cậy AI: Mạng Mira và giải pháp của nó để giải quyết thiên kiến và ảo giác AI
Gần đây, mạng Mira đã chính thức ra mắt mạng thử nghiệm công cộng, dự án này nhằm xây dựng một lớp tin cậy cho trí tuệ nhân tạo. Vậy, tại sao AI cần được tin cậy? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề về "ảo giác" hoặc sự thiên lệch của AI lại thường bị bỏ qua. Ảo giác của AI, đơn giản mà nói, là AI đôi khi sẽ "bịa ra" thông tin, đưa ra những giải thích có vẻ hợp lý nhưng thực tế lại không chính xác. Ví dụ, nếu hỏi AI tại sao mặt trăng lại có màu hồng, nó có thể cung cấp một loạt các giải thích nghe có vẻ hợp lý nhưng thực tế lại không đúng.
Sự xuất hiện của "ảo giác" hoặc thiên kiến trong AI liên quan đến một số con đường công nghệ AI hiện tại. Ví dụ, AI sinh ra đạt được đầu ra liên kết và hợp lý bằng cách dự đoán nội dung "có khả năng" nhất, nhưng phương pháp này đôi khi khó xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa sai sót, thiên kiến thậm chí là nội dung hư cấu, tất cả những điều này đều ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người, chứ không phải chính sự thật.
Cơ chế sinh xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi sẽ dẫn đến việc AI tạo ra ảo giác. Mặc dù trong các kiến thức phổ thông hoặc nội dung giải trí, vấn đề này có thể không ngay lập tức gây ra hậu quả nghiêm trọng, nhưng trong các lĩnh vực yêu cầu tính chính xác cao như y tế, pháp lý, hàng không, tài chính, nó có thể gây ra ảnh hưởng lớn. Do đó, giải quyết vấn đề ảo giác và thiên kiến của AI trở thành một trong những thách thức cốt lõi trong quá trình phát triển AI.
Dự án Mira đang cố gắng giải quyết vấn đề này. Mục tiêu của nó là xây dựng một lớp tin cậy cho AI, giảm thiểu sự thiên lệch và ảo tưởng của AI, nâng cao độ tin cậy của AI. Vậy Mira thực hiện mục tiêu này như thế nào?
Chiến lược cốt lõi của Mira là xác minh đầu ra của AI thông qua sự đồng thuận của nhiều mô hình AI. Nó về cơ bản là một mạng lưới xác minh, sử dụng sự đồng thuận của nhiều mô hình AI để xác minh độ tin cậy của đầu ra AI. Quan trọng hơn, Mira đã áp dụng phương thức xác minh đồng thuận phi tập trung.
Chìa khóa của mạng Mira nằm ở việc xác thực đồng thuận phi tập trung. Điều này không chỉ tận dụng lợi thế của lĩnh vực tiền mã hóa mà còn giảm thiểu thiên lệch và ảo giác thông qua mô hình xác thực tập thể phối hợp đa mô hình.
Trong cấu trúc xác thực, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác thực độc lập. Các nhà điều hành nút tham gia xác thực các tuyên bố này, và để đảm bảo tính trung thực của các nhà điều hành nút, Mira đã áp dụng cơ chế khuyến khích / trừng phạt kinh tế mã hóa. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng nhau tham gia để đảm bảo tính đáng tin cậy của kết quả xác thực.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng viên thành các tuyên bố có thể xác thực khác nhau, sau đó phân phối cho các nút để xác thực, cuối cùng tổng hợp kết quả để đạt được sự đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối đến các nút khác nhau theo cách phân mảnh ngẫu nhiên.
Các nhà điều hành nút chịu trách nhiệm vận hành mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực. Động lực tham gia xác thực của họ đến từ việc có thể kiếm được lợi nhuận. Những lợi nhuận này xuất phát từ giá trị tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Để ngăn chặn các hành vi đầu cơ phản ứng ngẫu nhiên của các nút, các nút liên tục lệch khỏi sự đồng thuận sẽ bị trừ token đặt cọc.
Tổng thể, Mira cung cấp một cách tiếp cận mới để đạt được độ tin cậy của AI. Nó xây dựng một mạng lưới xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu sự thiên lệch và ảo giác của AI, đồng thời đáp ứng nhu cầu về độ chính xác và độ nhạy cao hơn. Nói ngắn gọn, Mira đang cố gắng xây dựng một lớp tin cậy cho AI, điều này có ý nghĩa quan trọng trong việc thúc đẩy sự phát triển sâu rộng của ứng dụng AI.
Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công cộng của Mira thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira), trải nghiệm đầu ra AI đã được xác thực và có cơ hội kiếm điểm Mira. Điều này cung cấp cho người dùng một cơ hội trực quan để so sánh sự khác biệt giữa đầu ra AI trước và sau khi được xác thực, cho thấy tiềm năng của mạng Mira trong việc nâng cao độ tin cậy của AI.