Загрузка...

Оптимизация GPT-4o Mini через Fine-tuning и Дистилляцию: Демо и Результаты

Узнайте, как использовать fine-tuning и дистилляцию для модели GPT-4o-mini. В видео разбираем практический подход: как обучить компактную модель GPT-4o-mini показывать результаты, сравнимые с GPT-4o, но со значительно меньшими затратами и задержкой. Полезно, если вы уже используете GPT-4o для сложных задач и хотите оптимизировать расходы, или если хотите выжать максимум из маленькиой модели для конкретного сценария.

00:00 - Вступление: Fine-tuning GPT-4o-mini
01:15 - Обзор GPT-4o-mini и основы Fine-tuning (Когда использовать?)
06:04 - Концепция Дистилляции моделей (Учитель-Ученик, Chain-of-Thought)
07:38 - Подготовка к Демо: Сценарий (маршрутизация), план, примеры данных
14:42 - Начало Демонстрации Кода
15:17 - Демо: Генерация синтетического датасета (GPT-4o + Self-reflection)
23:20 - Демо: Оценка базовой производительности
29:35 - Демо: Запуск Fine-tuning GPT-4o-mini (API + OpenAI UI)
34:40 - Демо: Оценка производительности Fine-tuned модели
36:14 - Результаты Демонстрации: Сравнение точности и стоимости
39:11 - Примеры из практики: Superhuman и Ramp
40:34 - Вопросы и Ответы (Q&A)
57:26 - Заключение

Видео Оптимизация GPT-4o Mini через Fine-tuning и Дистилляцию: Демо и Результаты канала Академия OpenAI на русском языке
Страницу в закладки Мои закладки
Все заметки Новая заметка Страницу в заметки