Коллеги, просто для истории - фиксирую текущее состояние...

Коллеги, просто для истории - фиксирую текущее состояние инфраструктуры ключевых сервисов и процессов в нашем университете. Чтобы сравнить с тем, что останется здесь через полгода-год. По всем признакам её решили полностью разрушить и заменить на костыли 10-летней давности, без резервирования, без обнаружения сервисов, без CI/CD, видимо лишь для того, чтобы отобрать её от тех, кто вложил душу в технологическое развитие нашего университета (именно нашего, мы все в нём учились и выросли). Особенно это выглядит парадоксально при наличии утвержденного проректором плана передачи в поддержку всех существующих систем и технологий с документацией и обучением, с гарантией работоспособности, так как проверяем сотнями тестов.

Очень жаль, что одна из лучших инфраструктур (к сожалению, она работала на не очень хорошем железе и с не очень внимательными админами), которую мы представляли даже на бизнес-форумах, превратится в лохмотья. Ибо "технологии педагогическому вузу не нужны" (цитата одного из руководителей). Помяните моё слово - через год здесь будет болото, но, к счастью, мы с этим уже не будет связаны. Все необходимые действия по передаче систем мы сделали и делаем, но все наши наработки и опыт могут отправиться на помойку, а причины вы и сами можете узнать, это не тайна.

Мы изменяемся и начинаем работать со студентами и с преподавателями, - с теми людьми, которые обладают достаточными компетенциями и видением будущего, чтобы принимать и создавать новое. А управление информатизации в его нынешнем состоянии, к сожалению, в моих глазах стало антипаттерном - сплошная ложь, интриги, тайные операции, уйма потерянных бумаг и обещаний и полное нежелание уважать сотрудников и слушать вопросы, которые не всегда бывают приятными. Это путь в никуда.

Итак, было:
Все подсистемы переведены на официальные или специально подготовленные docker-контейнеры, время восстановление при отказе снизилось с десятков минут до нескольких секунд, реализована модель хостинга на контейнерах (кстати, с docker-хостингом не было ни одной проблемы, в отличии от старого chroot, впрочем не только с хостингом, докер ОЧЕНЬ устойчив).
Есть инфраструктура распределенного мониторинга (Telegraf + InfluxDB / Grafana) и обнаружения сервисов (Consul), всесторонний контроль доступности и функционирования подсистем, сценарии реакции на аномалии (kapacitor)
Запущена и устойчиво работает collaboration-платформа для общих рабочих пространств, автоматизации процессов (Alfresco ECM)
Построен полноценный CI/CD на Gitlab и инструментах обновления отладочной и production-версии систем (как для веб-систем, так и для контейнерной упаковки), сборка и тестирование на всех этапах автоматизированы
Реализованы две шины: для распределенных приложений (RabbitMQ) и для потоков данных (Apache QPID), доступна возможность агрегации данных в гетерогенной среде
Каталог учётных записей реализован на кластере ReOpenLDAP (мы нашли и помогли исправить несколько ошибок в коде системы) из 3-х узлов, был запущен экспериментальный домен на SMB4 и Apereo CAS (OAuth)
Почтовая система сделана с полным резервированием SMTP (exim4), IMAP (dovecot), MX (exim4 + sa), веб-интерфейс с красивым оформлением и функциональностью.
Резервное копирование на Bacula, управление наборами данных через puppet.
Colleagues, just for the sake of history - I fix the current state of the infrastructure of key services and processes at our university. To compare with what will remain here in six months or a year. By all indications, they decided to completely destroy it and replace it with crutches 10 years ago, without reservation, without discovering services, without CI / CD, apparently only to take it away from those who put their hearts into the technological development of our university (namely our , we all studied and grew up in it). This especially looks paradoxical if there is a transfer plan approved by the Vice-Rector in support of all existing systems and technologies with documentation and training, with a guarantee of operability, since we check with hundreds of tests.

It is unfortunate that one of the best infrastructures (unfortunately, it worked on not very good hardware and with not very attentive administrators), which we represented even at business forums, will turn into rags. Because "technology is not needed for a pedagogical university" (quote from one of the leaders). Mark my word - in a year there will be a swamp, but, fortunately, we will no longer be connected with this. We have done and are doing all the necessary actions for the transfer of systems, but all our best practices and experience can go to the trash, and you can find out the reasons yourself, this is not a secret.

We are changing and starting to work with students and teachers, those people who have sufficient competencies and a vision for the future to accept and create new things. And the informatization department in its current state, unfortunately, has become an antipatter in my eyes - sheer lies, intrigues, secret operations, a lot of lost papers and promises and a complete unwillingness to respect employees and listen to questions that are not always pleasant. This is the road to nowhere.

So it was:
All subsystems were transferred to official or specially prepared docker containers, recovery time on failure decreased from tens of minutes to several seconds, a hosting model for containers was implemented (by the way, there was not a single problem with docker hosting, unlike the old chroot, but not only with hosting, docker is VERY stable).
There is an infrastructure for distributed monitoring (Telegraf + InfluxDB / Grafana) and service discovery (Consul), comprehensive monitoring of the availability and functioning of subsystems, scenarios of reaction to anomalies (kapacitor)
Collaboration platform for common workspaces, process automation (Alfresco ECM) launched and stable
A full-fledged CI / CD was built on Gitlab and tools for updating the debugging and production versions of systems (both for web systems and container packaging), assembly and testing at all stages are automated
Two buses are implemented: for distributed applications (RabbitMQ) and for data streams (Apache QPID), the ability to aggregate data in a heterogeneous environment is available
The account directory is implemented on the ReOpenLDAP cluster (we found and helped fix several errors in the system code) from 3 nodes, an experimental domain was launched on SMB4 and Apereo CAS (OAuth)
The mail system is made with full redundancy SMTP (exim4), IMAP (dovecot), MX (exim4 + sa), a web interface with a beautiful design and functionality.
Backup to Bacula, manage data sets through puppet.
У записи 11 лайков,
1 репостов,
514 просмотров.
Эту запись оставил(а) на своей стене Дмитрий Золотов

Понравилось следующим людям