Рубрикатор |
Все новости | Новости компаний |
Amazon выпустила открытую библиотеку для создания ИИ-моделей несколькими строками кода
13 января 2020 |
Компания Amazon выпустила библиотеку с открытым исходным кодом, которая поможет разработчикам быстро создавать приложения с использованием машинного обучения. Проект под названием AutoGluon создан в подразделении Amazon Web Services (AWS).
Благодаря AutoGluon можно создавать модели искусственного интеллекта, использующие изображения, текст и табличные наборы данных, путём написания небольшого количества строк кода.
Создание таких приложений — задача непростая, поскольку разработчики должны знать, как настраивать «гиперпараметры» при построении ИИ-модели. Им также необходимо разобраться с такими проблемами, как поиск нейронной архитектуры, который позволяет им находить самый лучший вариант архитектуры для своих моделей машинного обучения. AutoGluon автоматизирует выполнение таких задач.
«Мы разработали AutoGluon, чтобы по-настоящему демократизировать машинное обучение и предоставить возможность глубокого обучения всем разработчикам», — говорит специалист по прикладным прикладным программам AWS Йонас Мюллер (Jonas Mueller). - Из-за непрозрачной природы глубокого обучения многие из решений экспертов основаны на интуиции, а не на строгом научном понимании того, как индивидуальный выбор влияет на желаемые результаты», — отмечает Мюллер. — AutoGluon решает эту проблему, поскольку все варианты автоматически настраиваются в пределах диапазонов по умолчанию, которые, как известно, хорошо работают для конкретной задачи и модели».
AutoGluon построен на основе ML-библиотеки Gluon для создания моделей из набора готовых оптимизированных элементов. Проект совместим в Python 3.6 и 3.7 и пока поддерживает только Linux. Выход версии для macOS и Windows запланирован, но сроки не указываются.
Источник: TAdviser
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!
Оставить свой комментарий:
Комментарии по материалу
Данный материал еще не комментировался.