Очень круто! Тонны полезной информации, спасибо докладчику! Интересное решение с key-value хранением данных, вместо классической денормализации.
@olehdevua2 жыл бұрын
> Интересное решение с key-value хранением данных, вместо классической денормализации. разве после этого CH не превращается в что то на подобии Cassandra? в чем тогда понт юзать колоночную СУБД, если она используется как key-value.
@alexeysokolov93973 жыл бұрын
Очень крутой доклад, спасибо! Пойду думать что из этого применимо у нас.
@rostislavratushniy7713 Жыл бұрын
Крутой доклад, спасибо! Можно уточнить по борьбе с дубликатами из Кафки, есть некоторое непонимание. Есть таблица на кафка движке , если целевая таблица, где не должно быть дублей. Если брать вашу модель с расширение таблицы полями топик и офсет, то я не могу понять где и как делать проверку офсета. Цепочка такая: кафка - матвью в целевую таблицу - целевая таблица - матвью в таблицу последнего сдвига по топику - таблица топик-офсет Я стараюсь проверку использовать в первой матвью, но блок WITH с подзапрос не работает, так как нужно же фильтровать по топику, а клик не видит в блоке Вирт столбец _topic, а Inner join боюсь положит вставку. Не могли бы подсказать этот момент? И еще вопрос, почему не учитываются партишены?
@GP-ez5ms3 жыл бұрын
Вообще не понял что за деградация при > 200 таблиц. Они выбрали супердерьмовый подход и не объяснили почему. Просто > 200 таблиц начинают тормозить?
@Krashulya Жыл бұрын
> что за деградация при > 200 таблиц рост числа транзакций в секунду => рост нагрузки на ZooKeeper. плюс, каждая вставка тратит CPU на сортировку ввставленных данных.
@НавсеСто-о3я3 жыл бұрын
приятно смотреть, как уверенный в себе оратор приводит кейсы как они безграмотно используют CH
@egor6463 жыл бұрын
А что именно там безграмотно?
@frvlad54 Жыл бұрын
К названию. А патерны и образцы -это одно и тоже?
@DennisPush4 жыл бұрын
интересно, если вы делаете сначала select max()..., а потом insert max+1 и без транзакций, как у вас получается избежать дублирования id в insert?
@sarbash.s4 жыл бұрын
Вангую там однопоточку с крупными батчами на выставку. По-любому, запись неконкурентная, иначе, вот, как Вы говорите.
@Krashulya Жыл бұрын
@@sarbash.s один файл обрабатывается одним читателем (по аналогии с тем, что в Kafka одну партицию всегда пасёт один процесс). Так что да - в пределах файла идёт однопоточная обработка.