Справка
x
Поиск
Закладки
Озвучить книгу
Изменить режим чтения
Изменить размер шрифта
Оглавление
Для озвучивания и цитирования книги перейдите в режим постраничного просмотра.
Осваиваем архитектуру Transformer. Разработка современных моделей с помощью передовых методов обработки естественного языка
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
Поставить закладку
Для продолжения работы требуется
Registration
Предыдущая страница
Следующая страница
Table of contents
Об авторах
О рецензенте
Предисловие
+
ЧАСТЬ I. ПОСЛЕДНИЕ РАЗРАБОТКИ В ОБЛАСТИ NLP, ПОДГОТОВКА РАБОЧЕЙ СРЕДЫ И ПРИЛОЖЕНИЕ HELLO WORLD
+
ЧАСТЬ II. МОДЕЛИ-ТРАНСФОРМЕРЫ - ОТ АВТОЭНКОДЕРОВ К АВТОРЕГРЕССИИ
+
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
-
Глава 8. Работа с эффективными трансформерами
Технические требования
Обзор эффективных, легких и быстрых трансформеров
Способы уменьшения размера модели
Работа с эффективным самовниманием
Заключение
Дополнительная литература
Глава 9. Многоязычные и кросс-языковые модели
Технические требования
Моделирование языка перевода и обмен знаниями между языками
XLM и mBERT
Задачи выявления кросс-языкового сходства
Кросс-языковая классификация
Кросс-языковое обучение без подготовки
Фундаментальные ограничения многоязычных моделей
Заключение
Дополнительная литература
Глава 10. Трансформерная модель как самостоятельная служба
Технические требования
Запуск службы трансформерной модели с fastAPI
Докеризация API
Создание службы модели с использованием TFX
Нагрузочное тестирование службы с помощью Locust
Заключение
Дополнительные источники информации
Глава 11. Визуализация внимания и отслеживание экспериментов
Технические требования
Интерпретация механизма внимания
Многоуровневая визуализация потоков внимания с помощью BertViz
Заключение
Дополнительная литература
Предметный указатель
Данный блок поддерживает скрол*