News Grower

Независимое покрытие AI, стартапов и технологий.

Как проектировать бизнес‑логику в микросервисах: 3 правила агрегатов, которые работают

Когда бизнес-логика становится сложной, микросервисы из удобного инструмента превращаются в источник боли. Классические «сценарии транзакций» приводят к монструозным классам и распределённым транзакциям, которые невозможно поддерживать.В этой статье разберу, как DDD и агрегаты помогают проектировать бизнес-логику та...

Автор: sproshchaev (OTUS) Оригинальный источник
Как проектировать бизнес‑логику в микросервисах: 3 правила агрегатов, которые работают

Когда бизнес-логика становится сложной, микросервисы из удобного инструмента превращаются в источник боли. Классические «сценарии транзакций» приводят к монструозным классам и распределённым транзакциям, которые невозможно поддерживать.В этой статье разберу, как DDD и агрегаты помогают проектировать бизнес-логику так, чтобы она не разваливалась под нагрузкой. Покажу на реальном примере HR-сервиса:▫️ почему объектные ссылки между сервисами — зло;▫️ как одно правило «транзакция = один агрегат» меняет архитектуру.

Связанные теги

Компании и люди

Линия сюжета

Продолжить следить за темой

Переходите к связанным материалам, страницам сущностей и активным линиям сюжета.

Почему я перестал писать bash-скрипты и написал свой язык

Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...

[Перевод] Как работают ИИ-агенты для разработки

[Перевод] Как работают ИИ-агенты для разработки

ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...

Cruzo — минималистичный UI-фреймворк без лишней сложности

Cruzo — минималистичный UI-фреймворк без лишней сложности

Иногда возникает странное ощущение, что фронтенд уже не про решение задач.А про поддержание сложности.Я в разработке ещё до AngularJS и React. Тогда всё было просто: HTML и немн...

Рекламный слот

Встроенный блок в статье

Зарезервированный партнерский слот для релевантных инструментов, сервисов и аккуратных редакционных интеграций.

Партнерский слот

Похожие статьи

Еще материалы, которые пересекаются по тегам, источнику или категории.

Почему я перестал писать bash-скрипты и написал свой язык

Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...

[Перевод] Как работают ИИ-агенты для разработки

[Перевод] Как работают ИИ-агенты для разработки

ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...

Еще материалы от Habr

Свежие публикации и продолжение темы от той же редакции.

Открыть страницу источника

Почему я перестал писать bash-скрипты и написал свой язык

Время от времени мне нужно выполнить примитивный сценарий в терминале, но каждый раз это заканчивается очередным гуглежом «bash iterate each file» или «bash file has string». А ...

[Перевод] Как работают ИИ-агенты для разработки

[Перевод] Как работают ИИ-агенты для разработки

ИИ-агенты для разработки быстро стали частью повседневной практики, но за внешней «магией» скрывается вполне конкретная архитектура: языковая модель, системный промпт, инструмен...

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

«Сожжение за ересь» в цифровую эпоху: почему ИИ не новый римский папа, а просто очень большая Википедия

Попытка обсудить использование LLM для анализа текстов на одном религиозном форуме закончилась быстрым блокированием и удалением темы. Статья задаётся вопросом: почему нейросети...

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Как мы запустили 35B LLM на видеокарте за $500: внутри ZINC inference engine

Год назад запуск модели на 35 миллиардов параметров подразумевал облако, очередь на GPU, и счёт от провайдера в конце месяца. Сегодня я покажу, как мы сделали это на одной потре...