Справка
x
Поиск
Закладки
Озвучить книгу
Изменить режим чтения
Изменить размер шрифта
Оглавление
Для озвучивания и цитирования книги перейдите в режим постраничного просмотра.
Осваиваем архитектуру Transformer. Разработка современных моделей с помощью передовых методов обработки естественного языка
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
Поставить закладку
Если Вы наш подписчик,то для того чтобы скопировать текст этой страницы в свой конспект,
используйте
просмотр в виде pdf
. Вам доступно 19 стр. из этой главы.
Для продолжения работы требуется
Регистрация
Предыдущая страница
Следующая страница
Оглавление
Об авторах
О рецензенте
Предисловие
+
ЧАСТЬ I. ПОСЛЕДНИЕ РАЗРАБОТКИ В ОБЛАСТИ NLP, ПОДГОТОВКА РАБОЧЕЙ СРЕДЫ И ПРИЛОЖЕНИЕ HELLO WORLD
+
ЧАСТЬ II. МОДЕЛИ-ТРАНСФОРМЕРЫ - ОТ АВТОЭНКОДЕРОВ К АВТОРЕГРЕССИИ
+
ЧАСТЬ III. ДОПОЛНИТЕЛЬНЫЕ ТЕМЫ
-
Глава 8. Работа с эффективными трансформерами
Технические требования
Обзор эффективных, легких и быстрых трансформеров
Способы уменьшения размера модели
Работа с эффективным самовниманием
Заключение
Дополнительная литература
Глава 9. Многоязычные и кросс-языковые модели
Технические требования
Моделирование языка перевода и обмен знаниями между языками
XLM и mBERT
Задачи выявления кросс-языкового сходства
Кросс-языковая классификация
Кросс-языковое обучение без подготовки
Фундаментальные ограничения многоязычных моделей
Заключение
Дополнительная литература
Глава 10. Трансформерная модель как самостоятельная служба
Технические требования
Запуск службы трансформерной модели с fastAPI
Докеризация API
Создание службы модели с использованием TFX
Нагрузочное тестирование службы с помощью Locust
Заключение
Дополнительные источники информации
Глава 11. Визуализация внимания и отслеживание экспериментов
Технические требования
Интерпретация механизма внимания
Многоуровневая визуализация потоков внимания с помощью BertViz
Заключение
Дополнительная литература
Предметный указатель
Данный блок поддерживает скрол*