Як 2022 рік став роком генеративного ШІ

Перегляньте сесії за запитом від саміту Low-Code/No-Code Summit, щоб дізнатися, як успішно впроваджувати інновації та підвищувати ефективність шляхом вдосконалення та масштабування громадянських розробників. Переглянути зараз.

У 2022 році навколо генеративного ШІ (штучного інтелекту) було багато ажіотажу (і ажіотажу). Платформи соціальних мереж, як-от Twitter і Reddit, наповнені зображеннями, створеними за допомогою моделей машинного навчання, таких як DALL-E і Stable Diffusion. . Стартапи, що створюють продукти на генеративних моделях, залучають фінансування, незважаючи на спад ринку. А великі технологічні компанії інтегрують генеративні моделі у свої споживчі продукти.

Генеративний штучний інтелект не новий. За кількома помітними винятками, більшість технологій, які ми бачимо сьогодні, існують уже кілька років. Однак конвергенція кількох тенденцій дозволила створювати генеративні моделі та застосовувати їх у щоденному застосуванні. Попереду в галузі ще багато викликів, але немає сумнівів, що ринок генеративного штучного інтелекту зростатиме у 2023 році.

Удосконалення генеративної науки ШІ

Генеративний штучний інтелект став популярним у 2014 році з появою Generative Adversarial Networks (GAN), типу архітектури глибокого навчання, здатної створювати реалістичні зображення, наприклад обличчя, із шуму карт. Потім вчені створили інші варіанти GAN для виконання інших завдань, наприклад перенесення стилю з одного зображення на інше. GAN і варіаційні автокодери (VAE), ще одна архітектура глибокого навчання, започаткували еру глибоких фейків, техніки штучного інтелекту, яка змінює зображення та відео, щоб замінити обличчя людини на інше.

У 2017 році з’явилася Transformer, архітектура глибокого навчання, що лежить в основі великих мовних моделей (LLM), таких як GPT-3, LaMDA та Gopher. Трансформатор використовується для генерації тексту, програмного коду і навіть білкових структур. Варіант трансформатора, «трансформатор зору», також використовується для візуальних завдань, таких як класифікація зображень. Попередня версія DALL-E OpenAI використовувала трансформатор для створення зображень із тексту.

Трансформатори є масштабованими, що означає, що їх продуктивність і точність покращуються, коли їх збільшують і надсилають більше даних. Але що ще важливіше, моделі трансформаторів можна навчати за допомогою неконтрольованого або самоконтрольованого навчання, тобто вони не потребують анотованих людиною даних або потребують дуже мало, що було одним із головних вузьких місць глибокого навчання.

Попереднє навчання контрастної мови й зображення (CLIP), техніка, представлена ​​OpenAI у 2021 році, стала важливою для генераторів тексту в зображення. CLIP дуже добре вивчає спільну інтеграцію між зображеннями та текстом, вивчаючи пари зображення-підпис, зібрані з Інтернету. CLIP і дифузія (інша техніка глибокого навчання для створення зображень із шуму) використовувалися в DALLE-2 OpenAI для створення зображень високої роздільної здатності з приголомшливою деталізацією та якістю.

З наближенням 2022 року кращі алгоритми, більші моделі та більші набори даних допомогли покращити результати генеративних моделей, створювати кращі зображення, писати високоякісний програмний код і генерувати довгі фрагменти (переважно) зв’язного тексту.

Відкрийте для себе потрібні програми

Генеративні моделі вперше були представлені як системи, які могли підтримувати велику кількість творчої роботи. GAN стали відомими тим, що створюють повні зображення з невеликою кількістю вхідних даних. LLM, як-от GPT-3, потрапили в заголовки для написання повних статей.

Але з розвитком галузі стало зрозуміло, що генеративні моделі ненадійні, якщо їх залишити напризволяще. Багато вчених сходяться на думці, що в сучасних моделях глибокого навчання, незалежно від розміру, дещо не вистачає

Як 2022 рік став роком генеративного ШІ

Перегляньте сесії за запитом від саміту Low-Code/No-Code Summit, щоб дізнатися, як успішно впроваджувати інновації та підвищувати ефективність шляхом вдосконалення та масштабування громадянських розробників. Переглянути зараз.

У 2022 році навколо генеративного ШІ (штучного інтелекту) було багато ажіотажу (і ажіотажу). Платформи соціальних мереж, як-от Twitter і Reddit, наповнені зображеннями, створеними за допомогою моделей машинного навчання, таких як DALL-E і Stable Diffusion. . Стартапи, що створюють продукти на генеративних моделях, залучають фінансування, незважаючи на спад ринку. А великі технологічні компанії інтегрують генеративні моделі у свої споживчі продукти.

Генеративний штучний інтелект не новий. За кількома помітними винятками, більшість технологій, які ми бачимо сьогодні, існують уже кілька років. Однак конвергенція кількох тенденцій дозволила створювати генеративні моделі та застосовувати їх у щоденному застосуванні. Попереду в галузі ще багато викликів, але немає сумнівів, що ринок генеративного штучного інтелекту зростатиме у 2023 році.

Удосконалення генеративної науки ШІ

Генеративний штучний інтелект став популярним у 2014 році з появою Generative Adversarial Networks (GAN), типу архітектури глибокого навчання, здатної створювати реалістичні зображення, наприклад обличчя, із шуму карт. Потім вчені створили інші варіанти GAN для виконання інших завдань, наприклад перенесення стилю з одного зображення на інше. GAN і варіаційні автокодери (VAE), ще одна архітектура глибокого навчання, започаткували еру глибоких фейків, техніки штучного інтелекту, яка змінює зображення та відео, щоб замінити обличчя людини на інше.

У 2017 році з’явилася Transformer, архітектура глибокого навчання, що лежить в основі великих мовних моделей (LLM), таких як GPT-3, LaMDA та Gopher. Трансформатор використовується для генерації тексту, програмного коду і навіть білкових структур. Варіант трансформатора, «трансформатор зору», також використовується для візуальних завдань, таких як класифікація зображень. Попередня версія DALL-E OpenAI використовувала трансформатор для створення зображень із тексту.

Трансформатори є масштабованими, що означає, що їх продуктивність і точність покращуються, коли їх збільшують і надсилають більше даних. Але що ще важливіше, моделі трансформаторів можна навчати за допомогою неконтрольованого або самоконтрольованого навчання, тобто вони не потребують анотованих людиною даних або потребують дуже мало, що було одним із головних вузьких місць глибокого навчання.

Попереднє навчання контрастної мови й зображення (CLIP), техніка, представлена ​​OpenAI у 2021 році, стала важливою для генераторів тексту в зображення. CLIP дуже добре вивчає спільну інтеграцію між зображеннями та текстом, вивчаючи пари зображення-підпис, зібрані з Інтернету. CLIP і дифузія (інша техніка глибокого навчання для створення зображень із шуму) використовувалися в DALLE-2 OpenAI для створення зображень високої роздільної здатності з приголомшливою деталізацією та якістю.

З наближенням 2022 року кращі алгоритми, більші моделі та більші набори даних допомогли покращити результати генеративних моделей, створювати кращі зображення, писати високоякісний програмний код і генерувати довгі фрагменти (переважно) зв’язного тексту.

Відкрийте для себе потрібні програми

Генеративні моделі вперше були представлені як системи, які могли підтримувати велику кількість творчої роботи. GAN стали відомими тим, що створюють повні зображення з невеликою кількістю вхідних даних. LLM, як-от GPT-3, потрапили в заголовки для написання повних статей.

Але з розвитком галузі стало зрозуміло, що генеративні моделі ненадійні, якщо їх залишити напризволяще. Багато вчених сходяться на думці, що в сучасних моделях глибокого навчання, незалежно від розміру, дещо не вистачає

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow