Приготовьтесь встретить клоны Chat GPT

Подготовьтесь к познакомьтесь с клонами чата GPTРазвернуть Эдвард Олив / Getty Images

ChatGPT может быть самым известным и потенциально ценным алгоритмом, но методы искусственного интеллекта, которые OpenAI использует для предоставления своего интеллекта, не являются ни уникальными, ни секретными. Конкурирующие проекты и клоны с открытым исходным кодом могут вскоре сделать ботов, подобных ChatGPT, доступными для копирования и повторного использования любым пользователем.

Stability AI, стартап, который уже разработал передовую технологию создания изображений с открытым исходным кодом, работает над открытым конкурентом ChatGPT. «До релиза осталось несколько месяцев, — говорит Эмад Мостак, генеральный директор Stability. Ряд конкурирующих стартапов, в том числе Anthropic, Cohere и AI21, работают над собственными чат-ботами, похожими на бота OpenAI.

Неизбежный поток изощренных чат-ботов сделает технологию более распространенной и заметной для потребителей, а также более доступной для компаний, разработчиков и исследователей ИИ. Это может ускорить стремление зарабатывать деньги с помощью инструментов ИИ, которые генерируют изображения, код и текст.

Устоявшиеся компании, такие как Microsoft и Slack, интегрируют ChatGPT в свои продукты, а многие стартапы работают над созданием нового API ChatGPT для разработчиков. Но более высокая доступность технологий также может усложнить усилия по прогнозированию и снижению сопутствующих рисков.

Соблазнительная способность ChatGPT давать убедительные ответы на широкий круг вопросов также побуждает его изобретать факты или использовать проблемных персонажей. Это может помочь в выполнении вредоносных задач, таких как создание вредоносного кода или рассылка спама и дезинформации.

Поэтому некоторые исследователи призвали замедлить развертывание систем, подобных ChatGPT, во время оценки рисков. «Нет необходимости останавливать исследования, но мы, безусловно, можем регулировать крупномасштабное развертывание», — говорит Гэри Маркус, эксперт по искусственному интеллекту, который стремился привлечь внимание к таким рискам, как дезинформация, создаваемая искусственным интеллектом. "Мы могли бы, например, запросить исследования 100 000 человек, прежде чем выпустить эти технологии для 100 миллионов человек".

Более широкая доступность систем, подобных ChatGPT, и выпуск версий с открытым исходным кодом затруднит ограничение исследований или более широкое развертывание. А конкуренция между крупными и малыми компаниями за принятие или соответствие ChatGPT не говорит о стремлении к замедлению темпов роста, а, скорее, способствует распространению технологии.

На прошлой неделе LLaMA, модель искусственного интеллекта, разработанная Meta и похожая на модель, лежащую в основе ChatGPT, просочилась в сеть после того, как ею поделились с университетскими исследователями. Систему можно использовать в качестве строительного блока при создании чат-бота, и ее выпуск вызвал обеспокоенность у тех, кто опасается, что системы ИИ, известные как большие языковые модели, и созданные на их основе чат-боты, такие как ChatGPT, используются для создания дезинформации или автоматизировать нарушения кибербезопасности. Некоторые эксперты говорят, что эти риски могут быть преувеличены, а другие предполагают, что повышение прозрачности технологии действительно поможет другим защититься от злоупотреблений.

Meta отказалась отвечать на вопросы об утечке, но представитель компании Эшли Гэбриел сделала заявление, в котором говорится: "Хотя модель доступна не для всех, и некоторые пытались обойти процесс утверждения, мы считаем, что текущая стратегия выпуска позволяет нам сбалансировать подотчетность и открытость».

ChatGPT создан...

Приготовьтесь встретить клоны Chat GPT
Подготовьтесь к познакомьтесь с клонами чата GPTРазвернуть Эдвард Олив / Getty Images

ChatGPT может быть самым известным и потенциально ценным алгоритмом, но методы искусственного интеллекта, которые OpenAI использует для предоставления своего интеллекта, не являются ни уникальными, ни секретными. Конкурирующие проекты и клоны с открытым исходным кодом могут вскоре сделать ботов, подобных ChatGPT, доступными для копирования и повторного использования любым пользователем.

Stability AI, стартап, который уже разработал передовую технологию создания изображений с открытым исходным кодом, работает над открытым конкурентом ChatGPT. «До релиза осталось несколько месяцев, — говорит Эмад Мостак, генеральный директор Stability. Ряд конкурирующих стартапов, в том числе Anthropic, Cohere и AI21, работают над собственными чат-ботами, похожими на бота OpenAI.

Неизбежный поток изощренных чат-ботов сделает технологию более распространенной и заметной для потребителей, а также более доступной для компаний, разработчиков и исследователей ИИ. Это может ускорить стремление зарабатывать деньги с помощью инструментов ИИ, которые генерируют изображения, код и текст.

Устоявшиеся компании, такие как Microsoft и Slack, интегрируют ChatGPT в свои продукты, а многие стартапы работают над созданием нового API ChatGPT для разработчиков. Но более высокая доступность технологий также может усложнить усилия по прогнозированию и снижению сопутствующих рисков.

Соблазнительная способность ChatGPT давать убедительные ответы на широкий круг вопросов также побуждает его изобретать факты или использовать проблемных персонажей. Это может помочь в выполнении вредоносных задач, таких как создание вредоносного кода или рассылка спама и дезинформации.

Поэтому некоторые исследователи призвали замедлить развертывание систем, подобных ChatGPT, во время оценки рисков. «Нет необходимости останавливать исследования, но мы, безусловно, можем регулировать крупномасштабное развертывание», — говорит Гэри Маркус, эксперт по искусственному интеллекту, который стремился привлечь внимание к таким рискам, как дезинформация, создаваемая искусственным интеллектом. "Мы могли бы, например, запросить исследования 100 000 человек, прежде чем выпустить эти технологии для 100 миллионов человек".

Более широкая доступность систем, подобных ChatGPT, и выпуск версий с открытым исходным кодом затруднит ограничение исследований или более широкое развертывание. А конкуренция между крупными и малыми компаниями за принятие или соответствие ChatGPT не говорит о стремлении к замедлению темпов роста, а, скорее, способствует распространению технологии.

На прошлой неделе LLaMA, модель искусственного интеллекта, разработанная Meta и похожая на модель, лежащую в основе ChatGPT, просочилась в сеть после того, как ею поделились с университетскими исследователями. Систему можно использовать в качестве строительного блока при создании чат-бота, и ее выпуск вызвал обеспокоенность у тех, кто опасается, что системы ИИ, известные как большие языковые модели, и созданные на их основе чат-боты, такие как ChatGPT, используются для создания дезинформации или автоматизировать нарушения кибербезопасности. Некоторые эксперты говорят, что эти риски могут быть преувеличены, а другие предполагают, что повышение прозрачности технологии действительно поможет другим защититься от злоупотреблений.

Meta отказалась отвечать на вопросы об утечке, но представитель компании Эшли Гэбриел сделала заявление, в котором говорится: "Хотя модель доступна не для всех, и некоторые пытались обойти процесс утверждения, мы считаем, что текущая стратегия выпуска позволяет нам сбалансировать подотчетность и открытость».

ChatGPT создан...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow