Раскрытие: взгляды и мнения, выраженные здесь, относятся исключительно к автору и не представляют взгляды и мнения Crypto.news.
В быстро расширяющейся цифровой экосистеме продолжающаяся революция ИИ в корне изменила то, как мы живем и работаем, и 65% всех основных организаций регулярно используют такие инструменты ИИ, такие как CHATGPT, Dall-E, Midjourney, Sora и Displexity.
Это знаменует собой почти в два раза больше, чем десять месяцев назад, а эксперты оценивают эту метрику в геометрической прогрессии в ближайшем будущем. Метеорический рост произошел с основной тенью — несмотря на прогнозируемую стоимость рынка, которая достигнет 15,7 триллиона долларов к 2030 году, растущий дефицит доверия угрожает разрушить его потенциал.
Недавние данные опроса показали, что более двух третей нас взрослых практически не доверяют информации, предоставленной основными инструментами ИИ. Это, в значительной степени благодаря тому факту, что в ландшафте в настоящее время преобладают три технологические гиганты, а именно Amazon, Google и Meta-которые, по сообщениям, контролируют 80% всех крупномасштабных данных обучения искусственного интеллекта.
Эти компании работают за непрозрачной завесой секретности, инвестируя сотни миллионов в системы, которые остаются черными ящиками во внешний мир. Хотя данное оправдание — «защита своих конкурентных преимуществ», оно создало опасную ответственность вакуума, которая вызвала огромное недоверие и основной скептицизм по отношению к этой технологии.
Решающее кризис доверия
Отсутствие прозрачности в развитии ИИ достигло критического уровня за последний год. Несмотря на такие компании, как OpenAI, Google и антропные тратят сотни миллионов долларов на разработку своих собственных крупных языковых моделей, они практически не понимают своих методологий обучения, источников данных или процедур проверки.
По мере того, как эти системы становятся все более сложными, а их решения несут большие последствия, отсутствие прозрачности создало опасную основу. Без возможности проверять выходы или понимать, как эти модели приходят к их выводам, у нас остались мощные, но необъяснимые системы, которые требуют более тщательного изучения.
Технология нулевого знания обещает переопределить текущую статус-кво. Протоколы ZK позволяют одному объекту доказать другому, что утверждение является истинным, не выявляя никакой дополнительной информации за пределами обоснованности самого утверждения. Например, человек может доказать третьей стороне, что он знает комбинацию сейфа, не выявляя саму комбинацию.
Этот принцип, применяемый в контексте ИИ, помогает облегчить новые возможности для прозрачности и проверки без ущерба для проприетарной информации или конфиденциальности данных.
Кроме того, недавние прорывы в машинном обучении с нулевым знанием (ZKML) позволили проверить выходы ИИ без выявления своих моделей замены или наборов данных. Это касается фундаментальной напряженности в сегодняшней экосистеме ИИ, которая является необходимостью прозрачности по сравнению с защитой интеллектуальной собственности (IP) и частных данных.
Нам нужен ИИ, а также прозрачность
Использование ZKML в системах искусственного интеллекта открывает три критических пути для восстановления доверия. Во-первых, он уменьшает проблемы, связанные с галлюцинациями LLM в контенте, сгенерированном AI, предоставляя доказательство того, что модель не манипулировала, изменяла его рассуждения или не отрывается от ожидаемого поведения из-за обновлений или точной настройки.
Во -вторых, ZKML облегчает всесторонний аудит модели, в котором независимые игроки могут проверить справедливость, уровни смещения системы и соответствие нормативным стандартам, не требуя доступа к базовой модели.
Наконец, это обеспечивает безопасное сотрудничество и проверку между организациями. В конфиденциальных отраслях, таких как здравоохранение и финансы, организации теперь могут проверить эффективность и соответствие модели искусственного интеллекта без обмена конфиденциальными данными.
Предоставляя криптографические гарантии, которые обеспечивают правильное поведение при защите запатентованной информации, эти предложения представляют осязаемое решение, которое может сбалансировать конкурирующие требования прозрачности и конфиденциальности в сегодняшнем и более цифровом мире.
Благодаря ZK Tech мы можем иметь инновации и доверие, сосуществовающие друг с другом, открывая эпоху, когда преобразующий потенциал ИИ соответствует надежным механизмам проверки и подотчетности.
Вопрос больше не в том, можем ли мы доверять ИИ, а скорее как быстро мы можем реализовать решения, которые делают доверие ненужными посредством математических доказательств. Одно можно сказать наверняка, что мы смотрим на интересные времена впереди.
Сэмюэль Пиртон является главным директором по маркетингу в Polyherra, управляя будущим интеллекта благодаря своей новаторской, высокопроизводительной технологии в Expchain-цепочке всего для ИИ. Опираясь на многолетний опыт работы в области технологий, глобального маркетинга и межкультурной социальной коммерции, Самуил понимает, что доверие, масштабируемость и проверка важны для ИИ и блокчейна. Прежде чем официально присоединиться к исполнительной команде Polyhedra в октябре 2024 года, он сыграл ключевую консультативную роль, поскольку компания получила стратегическое финансирование в размере 20 миллионов долларов при оценке в 1 миллиард долларов. До Polyherra Сэмюэль основал PrespplayGlobal, платформу социальной коммерции и взаимодействия, которая связывала спортсменов и знаменитостей, включая Стивена Карри и других ведущих мировых брендов — с крупнейшим рынком потребительских фанатов Китая.
