Справка
ЭБС "КОНСУЛЬТАНТ СТУДЕНТА"
Электронная библиотека технического вуза
Все издания
Вход / регистрация
Во весь экран / Свернуть
en
Версия для слабовидящих
Каталог
Все издания
Меню
Искать в книге
К результату поиска
Расширенный поиск
Закладки
На главную
Вход / регистрация
Во весь экран / Свернуть
en
Управление
Мои отчеты
Каталог
Издательства
УГС
Мои списки
Скачать приложение
Осваиваем архитектуру Transformer. Разработка современных моделей с помощью передовых методов обработки естественного языка
Оборот титула
Оглавление
Об авторах
О рецензенте
Предисловие
+
ЧАСТЬ I. ПОСЛЕДНИЕ РАЗРАБОТКИ В ОБЛАСТИ NLP, ПОДГОТОВКА РАБОЧЕЙ СРЕДЫ И ПРИЛОЖЕНИЕ HELLO WORLD
+
ЧАСТЬ II. МОДЕЛИ-ТРАНСФОРМЕРЫ - ОТ АВТОЭНКОДЕРОВ К АВТОРЕГРЕССИИ
+
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
-
Глава 8. Работа с эффективными трансформерами
Технические требования
Обзор эффективных, легких и быстрых трансформеров
Способы уменьшения размера модели
Работа с эффективным самовниманием
Заключение
Дополнительная литература
Глава 9. Многоязычные и кросс-языковые модели
Технические требования
Моделирование языка перевода и обмен знаниями между языками
XLM и mBERT
Задачи выявления кросс-языкового сходства
Кросс-языковая классификация
Кросс-языковое обучение без подготовки
Фундаментальные ограничения многоязычных моделей
Заключение
Дополнительная литература
Глава 10. Трансформерная модель как самостоятельная служба
Технические требования
Запуск службы трансформерной модели с fastAPI
Докеризация API
Создание службы модели с использованием TFX
Нагрузочное тестирование службы с помощью Locust
Заключение
Дополнительные источники информации
Глава 11. Визуализация внимания и отслеживание экспериментов
Технические требования
Интерпретация механизма внимания
Многоуровневая визуализация потоков внимания с помощью BertViz
Заключение
Дополнительная литература
Предметный указатель
Close Menu
Раздел
6
/
7
Страница
37
/
99
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
/
/
Внимание! Для озвучивания и цитирования книги перейдите в режим постраничного просмотра.
Для продолжения работы требуется
Регистрация
Каталог
Издательства
УГС
Мои списки
Скачать приложение
Осваиваем архитектуру Transformer. Разработка современных моделей с помощью передовых методов обработки естественного языка
Оглавление
Об авторах
О рецензенте
Предисловие
+
ЧАСТЬ I. ПОСЛЕДНИЕ РАЗРАБОТКИ В ОБЛАСТИ NLP, ПОДГОТОВКА РАБОЧЕЙ СРЕДЫ И ПРИЛОЖЕНИЕ HELLO WORLD
+
ЧАСТЬ II. МОДЕЛИ-ТРАНСФОРМЕРЫ - ОТ АВТОЭНКОДЕРОВ К АВТОРЕГРЕССИИ
+
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
-
Глава 8. Работа с эффективными трансформерами
Технические требования
Обзор эффективных, легких и быстрых трансформеров
Способы уменьшения размера модели
Работа с эффективным самовниманием
Заключение
Дополнительная литература
Глава 9. Многоязычные и кросс-языковые модели
Технические требования
Моделирование языка перевода и обмен знаниями между языками
XLM и mBERT
Задачи выявления кросс-языкового сходства
Кросс-языковая классификация
Кросс-языковое обучение без подготовки
Фундаментальные ограничения многоязычных моделей
Заключение
Дополнительная литература
Глава 10. Трансформерная модель как самостоятельная служба
Технические требования
Запуск службы трансформерной модели с fastAPI
Докеризация API
Создание службы модели с использованием TFX
Нагрузочное тестирование службы с помощью Locust
Заключение
Дополнительные источники информации
Глава 11. Визуализация внимания и отслеживание экспериментов
Технические требования
Интерпретация механизма внимания
Многоуровневая визуализация потоков внимания с помощью BertViz
Заключение
Дополнительная литература
Предметный указатель