Comments 7
Если бы новость опубликовал Ализар, было бы подозрительно.
+1
Первы раз на вопрос 42? выдало кусок кода какой-то страницы.
На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…
На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…
0
Там нет ничего «нагугленного». Он генерирует названия сайтов, фирм итд. На самом деле раз в несколько генераций эта штука выдает уморительные тексты, демонстрируя при этом весьма хорошее поддержание контекста (возвращение к именам, местам, соблюдение рода итд). Но с вопросами вообще проблема, да, т.к. он явно натренирован в основном на обычном тексте а не Q&A.
+1
1) Показанный онлайн пример даже до средне качественного бредогенератора не дотягивает. И представляет собой смесь очень неуравновешенного бредогенератора со случайным текстовым поиском.
2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.
2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.
0
UFO just landed and posted this here
После прочтения этой статьи может возникнуть ложное впечатление, что TalkToTransformer использует полный вариант GPT-2. Потому и появляется разочарование от результатов. OpenAI в своём анонсе показывала намного лучшие примеры.
Но нужно заметить, что этот сервис использует выложенную в открытый доступ модель с 345 миллионами параметров, а полную модель с 1,5 миллиардами параметров они решили во избежание злоупотреблений не выкладывать как раз из-за слишком высокого качества текстов.
Об этом написано на самом сайте TalkToTransformer. Мне кажется, это нужно добавить в статью.
0
Sign up to leave a comment.
ИИ от OpenAI научился писать поэмы, статьи и новости