Новый интересный in-memory cache в ClickHouse 25.4, второй запуск для запросов типа ```SELECT ... FROM table WHERE ...```, может быть быстрее в 20 раз, ну только если кол-во гранул попадающих под условие (селективность) не 100%, интересно как именно тут работает инвалидация кеша, полностью сбрасывается на INSERT или по-умному, только те парты которые "устарели"?
Но кому-то чисто под идею дали 2 ляма, которые они благополучно скорее всего просрут, хотя я бы посмотрел если бы мне как автору контента платили за каждый показ рекламы рядом с моим постом...
я очень надеюсь что таких ошибок накопится как можно больше, и в какой-то момент случится какая нибудь спонтанная амплификация трафика, которая просто забьет каналы паразитным трафиком ВЕЗДЕ! потому что в таком виде как сейчас, скорее бы все это нахрен сдохло =(
> Декораторы Python за вас превращают любой фрагмент кода в его абстрактное синтаксическое дерево, после чего вы можете делать с ним что угодно.
всегда считал что декораторы в runtime работают и подменяют собой просто точку входа в исходную функцию получая эту функцию в качестве аргумента на вход...
а парсинг AST это как-бы другая стадия, когда байткод *.pyc создается...
и вот теперь не знаю что думать
может автор как то не так себе процесс работы Numba представляет?
Если коммерческая компания пишет популярный open-source продукт и этот продукт является ядром основного коммерческого продукта, который компания продает и принимаются фичи от сторонних контрибуторов, почему core команда ожидает, что сторонние разработчики, которые сделали доработки, но не занимаются clickhouse на full time, обязаны поддерживать и фиксить все баги в будущем?
И почему тогда необходимо удалять фичи вместо того чтобы фиксить баги?
Если вы не готовы поддерживать в продукте фичи, зачем их запихивать в продукт?