Ренч Корзай, генеральный директор Giza, подчеркивает, что этические соображения в развитии агента искусственного интеллекта должны быть «архитектурно применяются». Он выступает за встроенный пользовательский контроль и «безопасность за дефицитом», чтобы минимизировать бремя регулирования.
«Архитектурно принудительная» безопасность пользователей
Быстрое развитие искусственного интеллекта привело к развитию все более сложных агентов ИИ, способных выполнять сложные задачи в различных секторах. Однако, поскольку эти агенты становятся более мощными и автономными, возникли опасения по поводу этических соображений и потенциальных рисков.
Чтобы решить эти проблемы, Ренч Корзай, генеральный директор Giza и ветеран отрасли, выступает за приоритетные приоритеты безопасности пользователей и суверенитет, который, по его словам, должен быть «не подлежит обсуждению» и «архитектурно применяется». Корзай утверждает, что этические руководящие принципы должны привести к конкретным инженерным требованиям, формируя каждый аспект дизайна агента искусственного интеллекта.
В письменных ответах на вопросы Bitcoin.com News, Корзай также подчеркнул необходимость полного пользовательского контроля. Этот контроль, добавил он, должен быть встроен в архитектуру агента, обеспечивая обеспечение полного надзора и полномочий пользователей. По словам Корзая, в отличие от систем, которые полагаются на делегированный контроль, этические агенты ИИ должны работать через рамки разрешения, которые можно мгновенно отозвать.
Для генерального директора Giza основное сообщение ясное: этические соображения должны быть встроены в основополагающую архитектуру систем ИИ, не добавленные в качестве запоздалой мысли.
«В Defi, где на карту поставлены финансовые активы пользователей, этические соображения должны быть встроены в основополагающую архитектуру систем ИИ, не добавленные в качестве запоздалой мысли», — сказал Корзай.
Этот менталитет «первой безопасности» имеет важное значение для укрепления доверия и обеспечения ответственного развития агентов ИИ. Обращаясь к децентрализованным рынкам финансов (DEFI), которые стали более сложными, Корзай показал, что теперь можно развернуть агенты искусственного интеллекта для оптимизации позиций пользователей по ведущим протоколам и выполнять сложные стратегии, в то время как пользователи сохраняют полный контроль над средствами.
«Ксенокогнитивные» финансы
Между тем, генеральный директор утверждает, что эффективная защита пользователей в DEFI происходит от надежного дизайна продукта, а не исключительно от внешнего регулирования. По его словам, этот подход «безопасности», по его словам, стремится создать экосистему, где безопасность «внутренняя», что сводит к минимуму необходимость жесткого регулирования.
Корзай утверждает, что строительство по своей природе безопасных систем выравнивает интересы заинтересованных сторон и активно взаимодействует с регуляторами для формирования будущей политики. Основное внимание уделяется созданию ценности с помощью хорошо информированных продуктов, что делает соответствие естественным результатом, а не препятствием для инноваций.
Глядя в будущее, Корзай сказал, что к 2030 году доминирует, что к ксенокогнитивным финансам доминируют, когда агенты искусственного интеллекта становятся основными границей на рынке, превышающие когнитивные пределы человека. В то время люди будут ставить стратегические цели, в то время как агенты искусственного интеллекта будут справляться с исполнением.
«Кривая усыновления не будет линейной — она будет экспоненциальной. Поскольку эти агенты демонстрируют свою способность последовательно превосходить ручные операции, сохраняя при этом гарантии безопасности, они станут способом по умолчанию взаимодействия с финансовыми рынками », — добавил генеральный директор.
