Читать книгу 120 практических задач онлайн
2. Подготовка данных: Загружаются данные о ценах акций из CSV файла и нормализуются с помощью MinMaxScaler. Создаются последовательности для обучения модели.
3. Построение модели RNN: Модель строится с использованием двух LSTM слоев. Первый слой LSTM возвращает последовательность, которая передается следующему слою. Второй слой LSTM возвращает конечный выход, который подается на полносвязные слои для получения прогноза.
4. Компиляция и обучение модели: Модель компилируется с использованием оптимизатора Adam и функции потерь mean_squared_error. Затем модель обучается на обучающей выборке.
5. Оценка и тестирование модели: Прогнозы модели сравниваются с реальными данными, и результаты визуализируются с помощью графика.
Этот подход может быть расширен и улучшен, например, путем настройки гиперпараметров модели или добавления дополнительных слоев для повышения точности прогнозов.
Построение модели RNN
Использование двух LSTM слоев
Для анализа временных рядов и прогнозирования цен на акции мы будем использовать два слоя LSTM. LSTM (Long Short-Term Memory) слои являются разновидностью рекуррентных нейронных сетей, специально разработанных для запоминания долгосрочных зависимостей в последовательных данных. В отличие от обычных RNN, которые могут страдать от проблем затухающих градиентов, LSTM могут эффективно обучаться на долгосрочных зависимостях.
Первый слой LSTM
Первый слой LSTM принимает последовательность данных на вход и возвращает последовательность, которая будет передана следующему слою. Возвращение последовательности (return_sequences=True) необходимо, чтобы каждый временной шаг предыдущего слоя был передан на вход следующего слоя LSTM. Это позволяет следующему слою LSTM дополнительно обрабатывать временные зависимости.
```python
model.add(layers.LSTM(50, return_sequences=True, input_shape=(sequence_length, 1)))
```
– 50 нейронов: Это количество нейронов в первом слое LSTM. Число нейронов определяет способность сети к обучению сложным паттернам.
–return_sequences=True: Указывает, что слой должен возвращать полную последовательность выходов для каждого временного шага, а не только последний выход.