Создание и тестирование пенсионных инвестиционных стратегий с помощью Okama
Если вы когда-нибудь задумывались о том, на сколько лет хватит ваших накоплений после выхода на пенсию — эта статья для вас. Мы разберём, как с помощью open-source библиотеки okama для Python можно моделировать и тестировать различные стратегии снятия денег с инвестиционного портфеля. От классического «правила 4%» д...
Если вы когда-нибудь задумывались о том, на сколько лет хватит ваших накоплений после выхода на пенсию — эта статья для вас. Мы разберём, как с помощью open-source библиотеки okama для Python можно моделировать и тестировать различные стратегии снятия денег с инвестиционного портфеля. От классического «правила 4%» до продвинутых адаптивных стратегий — всё с примерами кода.
Связанные теги
Компании и люди
Линия сюжета
Продолжить следить за темой
Переходите к связанным материалам, страницам сущностей и активным линиям сюжета.
Почему я перестал писать bash-скрипты и написал свой язык
Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...
[Перевод] Как работают ИИ-агенты для разработки
ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...
«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия
Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...
Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine
Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...
Cruzo — минималистичный UI-фреймворк без лишней сложности
Иногда возникает странное ощущение, что фронтенд уже не про решение задач.А про поддержание сложности.Я в разработке ещё до AngularJS и React. Тогда всё было просто: HTML и немн...
Делаем шасси для модели ретроавто
В прошлой статье я осветил тему изготовления мотора и трансмиссии для самодельного ретроавтомобиля в масштабе 1:5 и остановился на колесах. Это неспроста, колёса — это важный эл...
Страницы сущностей
Рекламный слот
Встроенный блок в статье
Зарезервированный партнерский слот для релевантных инструментов, сервисов и аккуратных редакционных интеграций.
Похожие статьи
Еще материалы, которые пересекаются по тегам, источнику или категории.
Почему я перестал писать bash-скрипты и написал свой язык
Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...
[Перевод] Как работают ИИ-агенты для разработки
ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...
«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия
Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...
Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine
Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...
Еще материалы от Habr
Свежие публикации и продолжение темы от той же редакции.
Почему я перестал писать bash-скрипты и написал свой язык
Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...
[Перевод] Как работают ИИ-агенты для разработки
ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...
«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия
Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...
Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine
Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...