Lớp tin cậy của AI: Mạng Mira giải quyết vấn đề thiên kiến và ảo tưởng của AI như thế nào
Gần đây, một phiên bản thử nghiệm công cộng trên mạng có tên là Mira đã được ra mắt, thu hút sự chú ý của ngành công nghiệp về vấn đề độ tin cậy của AI. Mục tiêu của mạng Mira là xây dựng một lớp niềm tin cho AI, giải quyết các vấn đề về "ảo giác" và thiên kiến mà AI đang gặp phải. Vậy tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường quan tâm nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề về "ảo giác" hoặc thiên kiến của AI thường bị bỏ qua. Nói đơn giản, "ảo giác" của AI là khi AI đôi khi có thể "bịa đặt", nói ra những điều vô lý một cách nghiêm túc. Ví dụ, nếu bạn hỏi AI tại sao mặt trăng lại màu hồng, nó có thể đưa ra một lời giải thích có vẻ hợp lý nhưng thực tế lại không có căn cứ.
Sự xuất hiện của "ảo giác" hoặc định kiến trong AI liên quan đến con đường công nghệ AI hiện tại. AI sinh ra đầu ra bằng cách dự đoán nội dung "có khả năng xảy ra nhất" để đạt được sự liên kết và hợp lý, nhưng đôi khi không thể xác minh tính xác thực. Hơn nữa, dữ liệu đào tạo có thể chứa lỗi, định kiến hoặc thậm chí nội dung hư cấu, điều này cũng ảnh hưởng đến đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người, chứ không phải sự thật bản thân.
Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi sẽ dẫn đến việc AI tạo ra ảo giác. Nếu đầu ra có thiên kiến hoặc ảo giác này chỉ giới hạn trong kiến thức chung hoặc nội dung giải trí, thì tạm thời sẽ không gây ra hậu quả nghiêm trọng. Nhưng nếu điều này xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp lý, hàng không, tài chính, nó có thể tạo ra tác động lớn. Do đó, giải quyết ảo giác và thiên kiến của AI trở thành một trong những vấn đề cốt lõi trong quá trình phát triển AI.
Dự án Mira đang cố gắng giải quyết vấn đề này. Nó giảm thiểu sự thiên kiến và ảo tưởng của AI bằng cách xây dựng một tầng niềm tin cho AI, nâng cao độ tin cậy của AI. Chiến lược cốt lõi của Mira là sử dụng sự đồng thuận của nhiều mô hình AI để xác minh đầu ra của AI. Về bản chất, nó là một mạng lưới xác minh, xác minh độ tin cậy của đầu ra AI thông qua sự đồng thuận phi tập trung.
Chìa khóa của mạng Mira nằm ở việc xác thực đồng thuận phi tập trung. Phương pháp này đã tham khảo công nghệ trong lĩnh vực tiền điện tử, đồng thời tận dụng lợi thế của sự hợp tác đa mô hình, thông qua mô hình xác thực tập thể để giảm thiểu thiên lệch và ảo giác.
Trong khung xác minh, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác minh độc lập. Các nhà điều hành nút tham gia xác minh những tuyên bố này, đảm bảo tính trung thực của các nhà điều hành thông qua các cơ chế khuyến khích và trừng phạt kinh tế mã hóa. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng tham gia để đảm bảo độ tin cậy của kết quả xác minh.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác minh phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng viên mà khách hàng gửi thành các tuyên bố có thể xác minh, sau đó phân phối cho các nút để xác minh. Các nút xác định tính hợp lệ của các tuyên bố và tổng hợp kết quả để đạt được sự đồng thuận, cuối cùng trả lại kết quả cho khách hàng. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối cho các nút khác nhau theo cách phân mảnh ngẫu nhiên.
Các nhà điều hành nút kiếm được lợi nhuận bằng cách vận hành mô hình xác thực, xử lý các tuyên bố và gửi kết quả xác thực. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, chủ yếu thể hiện qua việc giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Khách hàng sẵn sàng trả tiền cho điều này, nhưng tính bền vững và quy mô của việc trả tiền phụ thuộc vào khả năng của mạng Mira trong việc liên tục mang lại giá trị cho khách hàng. Để ngăn chặn việc các nút phản hồi ngẫu nhiên, hệ thống sẽ phạt các nút liên tục lệch khỏi sự đồng thuận để đảm bảo sự tham gia trung thực.
Tổng thể, Mira cung cấp một cách tiếp cận mới để đảm bảo độ tin cậy của AI. Nó xây dựng một mạng xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu thiên kiến và ảo giác của AI, đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao hơn. Điều này không chỉ tạo ra giá trị cho khách hàng mà còn mang lại lợi ích cho các bên tham gia mạng lưới. Mục tiêu cốt lõi của Mira là xây dựng một lớp tin cậy cho AI, thúc đẩy sự phát triển sâu rộng của các ứng dụng AI.
Hiện tại, Mira đã hợp tác với nhiều khung AI agent. Người dùng có thể tham gia mạng thử nghiệm công cộng thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira) để trải nghiệm các đầu ra AI đã được xác thực và có cơ hội kiếm điểm Mira. Mục đích sử dụng của những điểm này trong tương lai vẫn chưa được công bố, nhưng chắc chắn sẽ cung cấp động lực bổ sung cho người dùng tham gia.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
11 thích
Phần thưởng
11
5
Chia sẻ
Bình luận
0/400
LiquidityNinja
· 07-09 05:39
Nhận thức chung đáng tin cậy, hehe
Xem bản gốcTrả lời0
SellLowExpert
· 07-07 06:20
Giao dịch tiền điện tử thua lỗ đến mức quầng thâm cũng xuất hiện rồi, thật thảm hại, mất ngủ, ảnh hưởng đến kỷ lục cắt lỗ không vốn~
Mạng Mira xây dựng lớp tin cậy AI giải quyết vấn đề ảo giác và thiên kiến
Lớp tin cậy của AI: Mạng Mira giải quyết vấn đề thiên kiến và ảo tưởng của AI như thế nào
Gần đây, một phiên bản thử nghiệm công cộng trên mạng có tên là Mira đã được ra mắt, thu hút sự chú ý của ngành công nghiệp về vấn đề độ tin cậy của AI. Mục tiêu của mạng Mira là xây dựng một lớp niềm tin cho AI, giải quyết các vấn đề về "ảo giác" và thiên kiến mà AI đang gặp phải. Vậy tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường quan tâm nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề về "ảo giác" hoặc thiên kiến của AI thường bị bỏ qua. Nói đơn giản, "ảo giác" của AI là khi AI đôi khi có thể "bịa đặt", nói ra những điều vô lý một cách nghiêm túc. Ví dụ, nếu bạn hỏi AI tại sao mặt trăng lại màu hồng, nó có thể đưa ra một lời giải thích có vẻ hợp lý nhưng thực tế lại không có căn cứ.
Sự xuất hiện của "ảo giác" hoặc định kiến trong AI liên quan đến con đường công nghệ AI hiện tại. AI sinh ra đầu ra bằng cách dự đoán nội dung "có khả năng xảy ra nhất" để đạt được sự liên kết và hợp lý, nhưng đôi khi không thể xác minh tính xác thực. Hơn nữa, dữ liệu đào tạo có thể chứa lỗi, định kiến hoặc thậm chí nội dung hư cấu, điều này cũng ảnh hưởng đến đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người, chứ không phải sự thật bản thân.
Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi sẽ dẫn đến việc AI tạo ra ảo giác. Nếu đầu ra có thiên kiến hoặc ảo giác này chỉ giới hạn trong kiến thức chung hoặc nội dung giải trí, thì tạm thời sẽ không gây ra hậu quả nghiêm trọng. Nhưng nếu điều này xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp lý, hàng không, tài chính, nó có thể tạo ra tác động lớn. Do đó, giải quyết ảo giác và thiên kiến của AI trở thành một trong những vấn đề cốt lõi trong quá trình phát triển AI.
Dự án Mira đang cố gắng giải quyết vấn đề này. Nó giảm thiểu sự thiên kiến và ảo tưởng của AI bằng cách xây dựng một tầng niềm tin cho AI, nâng cao độ tin cậy của AI. Chiến lược cốt lõi của Mira là sử dụng sự đồng thuận của nhiều mô hình AI để xác minh đầu ra của AI. Về bản chất, nó là một mạng lưới xác minh, xác minh độ tin cậy của đầu ra AI thông qua sự đồng thuận phi tập trung.
Chìa khóa của mạng Mira nằm ở việc xác thực đồng thuận phi tập trung. Phương pháp này đã tham khảo công nghệ trong lĩnh vực tiền điện tử, đồng thời tận dụng lợi thế của sự hợp tác đa mô hình, thông qua mô hình xác thực tập thể để giảm thiểu thiên lệch và ảo giác.
Trong khung xác minh, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác minh độc lập. Các nhà điều hành nút tham gia xác minh những tuyên bố này, đảm bảo tính trung thực của các nhà điều hành thông qua các cơ chế khuyến khích và trừng phạt kinh tế mã hóa. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng tham gia để đảm bảo độ tin cậy của kết quả xác minh.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác minh phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng viên mà khách hàng gửi thành các tuyên bố có thể xác minh, sau đó phân phối cho các nút để xác minh. Các nút xác định tính hợp lệ của các tuyên bố và tổng hợp kết quả để đạt được sự đồng thuận, cuối cùng trả lại kết quả cho khách hàng. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối cho các nút khác nhau theo cách phân mảnh ngẫu nhiên.
Các nhà điều hành nút kiếm được lợi nhuận bằng cách vận hành mô hình xác thực, xử lý các tuyên bố và gửi kết quả xác thực. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, chủ yếu thể hiện qua việc giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Khách hàng sẵn sàng trả tiền cho điều này, nhưng tính bền vững và quy mô của việc trả tiền phụ thuộc vào khả năng của mạng Mira trong việc liên tục mang lại giá trị cho khách hàng. Để ngăn chặn việc các nút phản hồi ngẫu nhiên, hệ thống sẽ phạt các nút liên tục lệch khỏi sự đồng thuận để đảm bảo sự tham gia trung thực.
Tổng thể, Mira cung cấp một cách tiếp cận mới để đảm bảo độ tin cậy của AI. Nó xây dựng một mạng xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu thiên kiến và ảo giác của AI, đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao hơn. Điều này không chỉ tạo ra giá trị cho khách hàng mà còn mang lại lợi ích cho các bên tham gia mạng lưới. Mục tiêu cốt lõi của Mira là xây dựng một lớp tin cậy cho AI, thúc đẩy sự phát triển sâu rộng của các ứng dụng AI.
Hiện tại, Mira đã hợp tác với nhiều khung AI agent. Người dùng có thể tham gia mạng thử nghiệm công cộng thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira) để trải nghiệm các đầu ra AI đã được xác thực và có cơ hội kiếm điểm Mira. Mục đích sử dụng của những điểm này trong tương lai vẫn chưa được công bố, nhưng chắc chắn sẽ cung cấp động lực bổ sung cho người dùng tham gia.
Sử dụng ngôn ngữ: 中文
Tạo bình luận:
AI cũng sẽ chơi đùa với mọi người sao?