Эта статья преследует одну цель; для поддержания актуального списка доступных решений по оптимизации и настройке гиперпараметров для глубокого обучения и других применений машинного обучения. Если вы хотите предложить решение для добавления, вы можете поделиться им в комментариях ниже.
Оптимизация гиперпараметров для Keras
- DeepReplay - Визуализация гиперпараметров
- Hyperas - Keras Wrapper для Hyperopt
- Копт - Еще один оптимизатор на основе Hyperopt
- Талос - Оптимизация гиперпараметров для Кераса
Также внутри sklearn есть KerasClassifier для поиска по сетке.
Другие решения для оптимизации гиперпараметров
- советник - Открытая реализация Google Vizier
- auto_ml - Автоматизированное машинное обучение
- BTB - Байесовский тюнинг и бандиты
- Шоколад - Децентрализованная оптимизация гиперпараметров
- Cornell-MOE - параллельные байесовские алгоритмы оптимизации
- deap - Эволюционная оптимизация алгоритмов
- devol - Эволюционная оптимизация алгоритмов
- GPyOpt - Оптимизация процессов по Гауссу
- H20 - Автоматическое машинное обучение
- HORD - Детерминированные суррогаты RBF
- HPOlib - Оболочка оптимизатора гиперпараметров
- HpBandSter - Распределенная реализация Hyperband на стероидах
- hypergrad - Оптимизация на основе дифференцирования
- Hyperopt - Распределенная асинхронная оптимизация
- mlrMBO - Байесовская оптимизация для R
- pbt - Обучение с учетом населения
- pycma - Оптимизация CMA-ES
- rbfopt - Оптимизация без производных
- ROBO - Фреймворк байесовской оптимизации
- Sherpa - Оптимизация гиперпараметров
- SMAC3 - Конфигурация последовательного алгоритма на основе модели
- мята - Байесовская оптимизация
- TPOT - Автоматизированный инструмент машинного обучения
- пробирка - Track and Test Machine Learning Codes
- Tune - Масштабируемый поиск гиперпараметров