Pull to refresh
1
0

Пользователь

Send message

Постановка задачи автоматического реферирования и методы без учителя

Reading time8 min
Views8K


Всем привет!


Для написания кандидатской диссертации я недавно составил обзор различных методов автоматического реферирования, суммаризации. Обзор получился субъективно хорошим, поэтому я публикую его и здесь. Он очень объёмный, и я разбил его на несколько частей, которые и буду постепенно выкладывать. По мере публикации ниже будут появляться ссылки на остальные части цикла.


Статьи цикла:
1) Постановка задачи автоматического реферирования и методы без учителя ⬅️
2) Извлекающие методы автоматического реферирования
3) Секреты генерирующего реферирования текстов


Это первая статья цикла, посвящённая самой задаче и методам без учителя, которым не нужен эталонный корпус рефератов: методу Луна, TextRank, LexRank, LSA и MMR.

Читать дальше →
Total votes 11: ↑11 and ↓0+11
Comments6

Работа с японцами в IT: 10 отличий

Reading time10 min
Views21K


Нихон (так называют свою страну японцы) до сих пор остается загадочной и необычной в глазах иностранцев. За ее пределами распространено множество национальных стереотипов, среди которых, например, знаменитое японское качество и эффективность труда. А еще нам известно, что японцы очень ответственные и иногда умирают от переработок. На фоне этого (а также бесконечных сравнений «наших с вашими») может создаться впечатление, что Япония – обитель продуктивности и уж кто-то, а эти ребята знают толк в процессах разработки. Так ли это? Разберем на примере нашего проекта, где заказчиком выступала традиционная большая японская компания.
Читать дальше →
Total votes 44: ↑39 and ↓5+34
Comments16

Акихабара: место гнездования отаку

Reading time9 min
Views49K
В Токио есть своя «Горбушка», только называется она «долина осенних листьев». Район Канда, станция Акихабара, а так — Акиба. Название район получил от специального противопожарного храма, который теперь считается святилищем аниме. И я сейчас на полном серьёзе.


Храм аниме. На нормальных табличках пишут желания вроде «здоровья родным». Тут желания другие. Совсем другие.

Сам подрайон от реки до 6 квартала ещё называется «Электрогородок», потому что там раньше торговали электроникой. «Радиовышка» или высотка Radio Kaikan 62-го года постройки — это зародыш электрогородка, откуда всё пошло, первое высокое здание в районе. Ну, это тогда оно было высоким, а сейчас просто одно из многих, и не такое уж и большое. Там были магазины, а внизу развалы с подержанной электроникой. В 2011 году, правда, высотку развалило землетрясением (была признана аварийной), но её быстро перестроили к 2014 году. И теперь внутри торговый центр кольцевого типа, где всякая куча товаров для отаку. В целом, можно бродить просто по ней и соседнему зданию, и это получится мини-Акиба.

В общем, я прогулялся по району сам, а потом нашёл местных фиксеров, которые показали его с двух разных сторон и провели на пару секретных уровней. Сразу скажу, гулять по Акибе без местного или без детального путеводителя — идея так себе.
Читать дальше →
Total votes 190: ↑184 and ↓6+178
Comments87

Transformer в картинках

Reading time14 min
Views114K

В прошлой статье мы рассматривали механизм внимания (attention) – чрезвычайно распространенный метод в современных моделях глубокого обучения, позволяющий улучшить показатели эффективности приложений нейронного машинного перевода. В данной статье мы рассмотрим Трансформер (Transformer) – модель, которая использует механизм внимания для повышения скорости обучения. Более того, для ряда задач Трансформеры превосходят модель нейронного машинного перевода от Google. Однако самое большое преимущество Трансформеров заключается в их высокой эффективности в условиях параллелизации (parallelization). Даже Google Cloud рекомендует использовать Трансформер в качестве модели при работе на Cloud TPU. Попробуем разобраться, из чего состоит модель и какие функции выполняет.


Впервые модель Трансформера была предложена в статье Attention is All You Need. Реализация на TensorFlow доступна как часть пакета Tensor2Tensor, кроме того, группа NLP-исследователей из Гарварда создали гид-аннотацию статьи с реализацией на PyTorch. В данном же руководстве мы попробуем максимально просто и последовательно изложить основные идеи и понятия, что, надеемся, поможет людям, не обладающим глубоким знанием предметной области, понять данную модель.

Читать дальше →
Total votes 16: ↑16 and ↓0+16
Comments5

Как работают трансформеры: разбираем математику

Level of difficultyMedium
Reading time28 min
Views17K

В этом посте я представлю подробный пример математики, используемой внутри модели трансформера, чтобы вы получили хорошее представление о работе модели. Чтобы пост был понятным, я многое упрощу. Мы будем выполнять довольно много вычислений вручную, поэтому снизим размерность модели. Например, вместо эмбеддингов из 512 значений мы используем эмбеддинги из 4 значений. Это позволит упростить понимание вычислений. Мы используем произвольные векторы и матрицы, но при желании вы можете выбрать собственные значения.

Как вы увидите, математика модели не так уж сложна. Сложность возникает из-за количества этапов и количества параметров. Перед прочтением этой статьи я рекомендую прочитать пост Illustrated Transformer (или читать их параллельно) [перевод на Хабре]. Это отличный пост, объясняющий модель трансформера интуитивным (и наглядным!) образом, поэтому я не буду объяснять то, что уже объяснено в нём. Моя цель заключается в том, чтобы объяснить, как работает модель трансформера, а не что это такое. Если вы хотите углубиться в подробности, то изучите известную статью Attention is all you need [перевод на Хабре: первая и вторая части].

Читать далее
Total votes 40: ↑40 and ↓0+40
Comments8

10 главных нерешенных вопросов современной науки

Reading time9 min
Views24K

 Чем больше мы узнаем, тем больше новых вопросов перед нами открывается. Несмотря на все достижения XX столетия, проникновение в ядро атома и расшифровку многих тайн черных дыр, некоторые вещи остаются неизведанными. Для части вопросов, кажется, мы уже вот-вот найдем решение. Другие с нами, наверное, еще надолго. Но в любом случае полезно понимать, чего мы пока не знаем.

Конечно, в каждом таком списке есть доля субъективизма. Но я рискну сказать, что эти вопросы входят в число сложнейших, стоящих перед наукой. Над их решением трудятся тысячи ученых по всему миру, но пока что решения от нас ускользают.

Вот вопросы, ответы на которые мы пока ждём:

Читать далее
Total votes 56: ↑45 and ↓11+34
Comments67

Топ 10 deepnude нейросетей 2023 года

Reading time5 min
Views514K

DeepNude — это технология, использующая нейросети для создания изображений обнаженных тел на основе одетых фотографий или видео. Суть этой технологии заключается в том, чтобы "снять" одежду с изображения человека с помощью искусственного интеллекта и показать, как, предположительно, выглядит тело человека под одеждой.

Итак, в данной статье поговорим о пикантных и для некоторых людей непристойных темах, которые больше всего интересуют наше общество - обнаженное тело. Сделаем обзор таких сервисов как: Deepnude.ai, Deepfake.com, DeepSwap.ai, SoulGen и прочих.

Читать далее
Total votes 113: ↑99 and ↓14+85
Comments68

Создание telegram-ботов с интерактивным меню

Level of difficultyMedium
Reading time15 min
Views37K

Однажды меня попросили провести ревью и рефакторинг одного telegram-бота. Увидев файл размером 2000 строк, рассчитанный только на обработку разных меню я понял, что это требует унификации и общих подходов. Так родилась библиотека aiogram-dialog

В этой статье я бы хотел обратить внимание на некоторые проблемы, которые мы встречаем при создании таких меню, предложить варианты их решения. А во второй половине статьи показать как это решается с помощью aiogram-dialog.

Мы не будем рассматривать архитектуру всего приложения, об этом вы можете прочитать у Фаулера или Мартина. Мы поговорим только про определенную часть UI ботов. Так же это не будет введением в разработку telegram-ботов с нуля. Я предполагаю, что читатель знаком с питоном, ООП и слышал о такой вещи как DRY.

Примеры выбраны так, чтобы проще было показать определенные проблемы, но это не единственные сценарии приводящие к ним.

Читать далее
Total votes 25: ↑24 and ↓1+23
Comments4

Всё, что вам нужно — это внимание (часть 2)

Level of difficultyHard
Reading time15 min
Views8.7K
Источник

Примечание переводчика: Это вторая часть перевода статьи Attention is all you need, с которой началось развитие больших языковых моделей, в том числе чат-бота ChatGPT. Первую часть можно найти здесь.
Читать дальше →
Total votes 44: ↑42 and ↓2+40
Comments0

Всё, что вам нужно — это внимание (часть 1)

Level of difficultyHard
Reading time14 min
Views20K
Источник

Примечание переводчика: Недавно на Хабре мы рассказывали о статьях, которые нужно прочитать, если вы хотите заниматься искусственным интеллектом. Среди них была культовая статья Attention is all you need, выпущенная в 2017 году. С неё началось развитие больших языковых моделей, в том числе всем известного чат-бота ChatGPT. Оказалось, что у такой важной статьи нет перевода на русский язык. Мы решили исправить это. Ниже вы найдёте перевод первой части статьи, вторая часть доступна по ссылке.

Краткое содержание


Наиболее распространённые модели преобразования последовательностей основаны на сложных рекуррентных или свёрточных нейронных сетях, которые включают энкодер и декодер. В самых успешных моделях энкодер и декодер соединяются с помощью механизма внимания. В статье авторы предлагают новую простую архитектуру нейронных сетей — Трансформер. Он основан исключительно на механизмах внимания, без рекуррентности или свёрток. Эксперименты на двух задачах машинного перевода показали лучшее качество, а также больше возможностей к распараллеливанию и меньшие временные затраты на обучение. Модель достигает 28.4 по метрике BLEU на задаче перевода с английского на немецкий на данных WMT 2014, что превосходит предыдущий лучший результат на 2 пункта. На задаче перевода с английского на французский на данных WMT 2014 модель достигла наилучшего результата для решения, основанного на одной модели — 41.8 по метрике BLEU — после всего 3.5 дней обучения на 8 GPU, что составляет совсем небольшую часть тех вычислительных мощностей, которые были затрачены на обучение лучшей модели, известной из имеющихся публикаций. Авторы показывают, что Трансформер может также успешно применяться и в других задачах, таких как, например, синтаксический разбор предложений на английском языке с использованием как больших, так и весьма ограниченных наборов данных для обучения.
Читать дальше →
Total votes 61: ↑60 and ↓1+59
Comments5

Профилирование Python-программ и анализ их производительности

Reading time14 min
Views22K

Профилирование — это неотъемлемая часть любых работ по оптимизации кода или производительности программ. Любой опыт, любые знания в сфере оптимизации производительности, которые уже у вас есть, не принесут особой пользы в том случае, если вы не знаете о том, где их применить. В результате оказывается, что поиск узких мест приложений может помочь в деле решения проблем производительности, поможет сделать это быстро и приложив не слишком много усилий.

В этом материале мы обсудим инструменты и методы работы, которые способны обнаруживать и конкретизировать проблемы с производительностью кода, связанные и с ресурсами процессора, и с потреблением памяти. Здесь же мы поговорим о том, как реализовывать (почти безо всяких усилий) простые механизмы, позволяющие бороться с проблемами производительности. Эти механизмы используются в тех случаях, когда даже точно просчитанные изменения кода больше не позволяют улучшить ситуацию.

Читать далее
Total votes 26: ↑25 and ↓1+24
Comments0

Information

Rating
Does not participate
Location
Россия
Registered
Activity