Александр Грибанов
Заказчик Александр Грибанов riverlanding | FL.RU

Александр Грибанов

На сайте 11 лет и 1 месяц (заходил 10 месяцев 10 дней назад)
17
2162.62
Рейтинг
2162.62
Все (7)       Заказы (7)        Вакансии (0)       Конкурсы (0)
Разместить заказ
21 Августа 2020
Бюджет: 5000 руб
Задача: оптимизировать работу сервера для максимальной скорости загрузки сайта.

Что есть сейчас: сервер на Digital Ocean. CentOS 7.6 x64, установлена панель управления Vesta.
Объём трафика – 10 000 – 15 000 посетителей в сутки, со всего мира. Ожидается 100 000 – 150 000 посетителей в сутки.

Нужно настроить сервер оптимальным образом на всех уровнях и по тем параметрам, которые влияют на скорость загрузки страниц. Я собрал способы ускорения из интернета, нужно оценить их на целесообразность и эффективность и правильно внедрить + внести свои доработки для достижения цели, если требуется. Если какой то из пунктом бесполезен, дать обоснование.

Способы:

1. Настроить сжатие: gzip, brotli, deflate. Настроить приоритеты использования сжатия в зависимости от поддержки браузером и эффективности.
2. Настроить кэширование браузером клиента.
3. Настроить серверное кэширование.
4. Удалить лишние модули nginx: http_autoindex_module, http_ssi_module
5. Настроить client_body_timeout, client_header_timeout, keepalive_timeout, send_timeout. Сделать оптимизацию TCP, TLS, HTTP/2 yadi.sk/i/7YozOkOdhkAEZg yadi.sk/i/3ku1ZhrJgiZs9Q (увеличение начального окна перегрузки; уменьшение начального времени ожидания повторной передачи; уменьшение минимального и максимального времени ожидания повторной передачи)
6. Установить модуль mod-pagespeed. Прочитал, что этот модуль урезает куки, нужно отключить эту функцию, если она включена по-умолчанию.
7. Настроить оптимизацию БД (автоматическую чистку ненужных данных)
8. Включить акселератор на PHP (Цитата: Разработчики сайтов на PHP используют акселераторы кода для его оптимизации – это расширение, которое кэширует байт-код и увеличивает производительность интерпретатора. При загрузке страницы сервер часто обрабатывает одни и те же участки кода, а акселератор будет предварительно компилировать PHP, что уменьшит время получения первого байта. В версиях PHP 5.5 и выше он идет в комплекте, в файле "php.ini" нужно найти "opcache.enable" и включить акселератор.)
9. Отключить ETag.
10. Настроить использование Flush.
11. Настроить webp-detect на nginx



Информацию брал отсюда:
livepage.pro/knowledge-ba...
pr-cy.ru/news/p/7417-kak-...
www.dmosk.ru/miniinstrukt...
developers.google.com/spe...
developer.yahoo.com/perfo...
developer.yahoo.com/perfo...
docs.microsoft.com/ru-ru/...
pr-cy.ru/news/p/7417-kak-...
github.com/igrigorik/webp...


Также есть ряд вопросов, по которым нужна консультация:

1. Есть ли смысл выбирать лучший по характеристиках сервер при ожидаемом масштабировании? Доступ к Digital Ocean предоставлю, там есть статистика по текущей нагрузке.
2. Где лучше брать сервер, чтобы был доступен во всей Азии: Малайзия, Филиппины, Индонезия, Тайланд, Мьянма, Камбоджа, Вьетнам, Лаос, Индия. Сингапур оптимальный вариант?
3. Возможно смоделировать ситуацию, при которой на сайт приходит 50-100к кликов в день равномерно в течение 1 суток? Чтобы оценить, как ведёт себя сервер при таких нагрузках
4. Можно настроить оповещение при проблемах со скоростью / доступностью сайта / нагруженностью сервера? Чтобы приходили пуш-уведомления в браузер или сообщения в Телеграм. Есть ли простое решение?
5. Оптимальна ли панель Vesta или лучше установить другую? Или это не играет никакой роли?
6. ОСЬ сейчас CentOS 7.6 x64. Есть ли смысл использовать другую для ускорения загрузки?
7. Вопрос по поводу совместного использования с Azure CDN от Akamai. В справке написано: "Когда конечная точка профиля запрашивает файл в формате gzip, он всегда запрашивается с сервера-источника, независимо от запроса клиента." docs.microsoft.com/ru-ru/... Правильно ли я понял, что при использовании Akamai нет смысла использовать никакое другое сжатие, кроме gzip?

Необходимые доступы предоставлю.

После настройке сервера нужно написать пошаговую инструкцию. Можно не максимально подробную (подключиться через SSH или открыть файл на FTP смогу). Можно по основным шагам + где какие команды вводить. После ознакомления инструкции попробую ее повторить с нуля, нужно будет ответить на возникающие по ходу вопросы.

Прошло времени с момента публикации: 4 года 2 месяца 20 дней 11 часов 19 минут
Раздел: Аутсорсинг и консалтинг / Сетевое администрирование

Рейтинг: 21297.1 Исполнитель определен:
12 Августа 2020
Бюджет: 1500 руб
Есть сервер на Digital Ocean, на котором расположены веб-страницы. Задача – максимально увеличить скорость загрузки страниц по всему миру, используя все возможности Google Cloud CDN.

Ищу человека, который имеет опыт настройки Google Cloud CDN и хорошо разбирается в оптимизации скорости сайтов на серверной стороне, в частности с помощью CDN.

Нужно настроить Google Cloud CDN оптимальным образом, используя следующий функционал:

1. Настройка DNS
2. Настройка SSL-сертификатов (сейчас используется Let's Encsiprt, настроенный на сервере)
3. Правила кэширования (оптимальные сроки хранения кэша на серверах)
4. Сжатие (нужен оптимальный вариант: какие способы сжатия использовать, и нужно ли делать это на уровне CDN или лучше настроить на сервере)
5. Балансировка трафика
6. Хранилище Google (вопрос в целесообразности: нужно ли загружать часть контента в хранилище Google или можно всё хранить на сервере Digital Ocean? Также вопрос по поводу количества ресурсов, откуда происходит скачивание. Насколько знаю, в браузере ограничение на количество потоков с одного источника, можно скачивать не более 2 файлов одновременно. И для ускорения загрузки используют несколько источников, чтобы больше файлов скачивалось параллельно. Также вопрос дальнейшего использования этого метода, насколько просто это внедрить? Потому что страниц много и они постоянно добавляются, нужно чтобы этот процесс был максимально автоматизированным).



Нужно оценить запрашиваемый мной функционал с точки зрения эффективности и целесообразности в моём случае, настроить всё оптимальным образом.
Далее записать пошаговую видео-инструкцию с объяснением голосом либо текстовыми вставками. Либо сделать текстовую инструкцию со скриншотами.

После изучения инструкции, я повторю каждый шаг самостоятельно. Нужно будет ответить на возникающие по ходу вопросы.


Также в процессе работы нужно ответить на несколько вопросов:

1. Как поменять контент на странице, если CDN её уже закэшировал? В Cloudflare есть функция Development Mode. Нужна инструкция, как решить эту задачу в Google Cloud CDN.
2. Как CDN передаёт куки на сервер и можно ли управлять этим процессом? Сейчас использую Cloudflare. Трафик на страницы приходит с get-параметрами (в хвосте ссылки прописаны параметры и уникальные значения). Страница записывает эти get-параметры в куки. На странице есть внешние ссылки трекера (TDS, система распределения трафика). При переходе по внешней ссылке трекера, TDS проверяет куки и в зависимости от значения параметра в хвосте изначальной ссылкы, делает редирект по нужной ссылке. Вопрос в том, не будут ли обрезаться эти данные при использовании CDN? С Cloudflare проблем не возникает.
3. Будет ли отличаться настройка CDN для нового домена? Планирую использовать до 15 доменов.
4. Сейчас к одному серверу прикреплено 15 доменов. На части доменов настроен Cloudflare, часть доменов без CDN, на нескольких доменов планирую подключить другой CDN для замера скорости. Не будет проблем при использовании Google Cloud CDN на нескольких доменов, при то что часть доменов подключены к другим CDN?


Прошло времени с момента публикации: 4 года 2 месяца 29 дней 15 часов 38 минут
Раздел: Аутсорсинг и консалтинг / Сетевое администрирование

12 Августа 2020
Бюджет: 1500 руб
Есть сервер на Digital Ocean, на котором расположены веб-страницы. Задача – максимально увеличить скорость загрузки страниц по всему миру, используя все возможности AWS CloudFront.

Ищу человека, который имеет опыт настройки AWS CloudFront и хорошо разбирается в оптимизации скорости сайтов на серверной стороне, в частности с помощью CDN.

Нужно настроить AWS CloudFront оптимальным образом, используя следующий функционал:

1. Настройка DNS
2. Настройка SSL-сертификатов (сейчас используется Let's Encsiprt, настроенный на сервере)
3. Правила кэширования (оптимальные сроки хранения кэша на серверах)
4. Сжатие (нужен оптимальный вариант: какие способы сжатия использовать, и нужно ли делать это на уровне CDN или лучше настроить на сервере)
5. Балансировка трафика (если есть такой функционал)
6. Корзина S3 (вопрос в целесообразности: нужно ли загружать часть контента в хранилище AWS или можно всё хранить на сервере Digital Ocean? Также вопрос по поводу количества ресурсов, откуда происходит скачивание. Насколько знаю, в браузере ограничение на количество потоков с одного источника, можно скачивать не более 2 файлов одновременно. И для ускорения загрузки используют несколько источников, чтобы больше файлов скачивалось параллельно. Также вопрос дальнейшего использования этого метода, насколько просто это внедрить? Потому что страниц много и они постоянно добавляются, нужно чтобы этот процесс был максимально автоматизированным).



Нужно оценить запрашиваемый мной функционал с точки зрения эффективности и целесообразности в моём случае, настроить всё оптимальным образом.

Далее записать пошаговую видео-инструкцию с объяснением голосом либо текстовыми вставками. Либо сделать текстовую инструкцию со скриншотами.

После изучения инструкции, я повторю каждый шаг самостоятельно. Нужно будет ответить на возникающие по ходу вопросы.

Также в процессе работы нужно ответить на несколько вопросов:

1. Как поменять контент на странице, если CDN её уже закэшировал? В Cloudflare есть функция Development Mode. Нужна инструкция, как решить эту задачу в CloudFront.
2. Как CDN передаёт куки на сервер и можно ли управлять этим процессом? Сейчас использую Cloudflare. Трафик на страницы приходит с get-параметрами (в хвосте ссылки прописаны параметры и уникальные значения). Страница записывает эти get-параметры в куки. На странице есть внешние ссылки трекера (TDS, система распределения трафика). При переходе по внешней ссылке трекера, TDS проверяет куки и в зависимости от значения параметра в хвосте изначальной ссылкы, делает редирект по нужной ссылке. Вопрос в том, не будут ли обрезаться эти данные при использовании CDN? С Cloudflare проблем не возникает.
3. Будет ли отличаться настройка CDN для нового домена? Планирую использовать до 15 доменов.
4. Сейчас к одному серверу прикреплено 15 доменов. На части доменов настроен Cloudflare, часть доменов без CDN, на нескольких доменов планирую подключить другой CDN для замера скорости. Не будет проблем при использовании CloudFront на нескольких доменов, при то что часть доменов подключены к другим CDN?


Прошло времени с момента публикации: 4 года 2 месяца 29 дней 15 часов 55 минут
Раздел: Аутсорсинг и консалтинг / Сетевое администрирование

12 Августа 2020
Бюджет: 1500 руб
Есть сервер на Digital Ocean, на котором расположены веб-страницы. Задача – максимально увеличить скорость загрузки страниц по всему миру, используя все возможности Azure CDN.

Ищу человека, который имеет опыт настройки Azure CDN и хорошо разбирается в оптимизации скорости сайтов на серверной стороне, в частности с помощью CDN.

Нужно настроить Azure оптимальным образом, используя следующий функционал:

1. Диспетчер трафика (DNS) docs.microsoft.com/ru-ru/...
2. Настройка SSL-сертификатов (сейчас используется Let's Encsiprt, настроенный на сервере) docs.microsoft.com/ru-ru/...
3. Правила кэширования (оптимальные сроки хранения кэша на серверах) docs.microsoft.com/ru-ru/...
4. Сжатие docs.microsoft.com/ru-ru/... (нужен оптимальный вариант: какие способы сжатия использовать, и нужно ли делать это на уровне CDN или лучше настроить на сервере)
5. Azure Load Balancer docs.microsoft.com/ru-ru/...
6. Хранилище BLOB-объектов azure.microsoft.com/ru-ru... (вопрос в целесообразности: нужно ли загружать часть контента в хранилище Azure или можно всё хранить на сервере Digital Ocean? Также вопрос по поводу количества ресурсов, откуда происходит скачивание. Насколько знаю, в браузере ограничение на количество потоков с одного источника, можно скачивать не более 2 файлов одновременно. И для ускорения загрузки используют несколько источников, чтобы больше файлов скачивалось параллельно. Также вопрос дальнейшего использования этого метода, насколько просто это внедрить? Потому что страниц много и они постоянно добавляются, нужно чтобы этот процесс был максимально автоматизированным).
7. Адаптивное сжатие изображений docs.microsoft.com/ru-ru/...
8. Предварительная выборка объектов docs.microsoft.com/ru-ru/...
9. Оптимизация маршрутов docs.microsoft.com/ru-ru/...
10. Оптимизация общей веб-доставки docs.microsoft.com/ru-ru/...



Нужно оценить запрашиваемый мной функционал с точки зрения эффективности и целесообразности в моём случае, настроить всё оптимальным образом.

Далее записать пошаговую видео-инструкцию с объяснением голосом либо текстовыми вставками. Либо сделать текстовую инструкцию со скриншотами.

После изучения инструкции, я повторю каждый шаг самостоятельно. Нужно будет ответить на возникающие по ходу вопросы.


Также в процессе работы нужно ответить на несколько вопросов:

1. Какую версию CDN лучше использовать: Akamai или Verizon? Судя по сравнительной таблице, у Akamai есть много интересных доп. настроек, которых нет в Verizon. Но в Verizon, в отличие от Akamai, есть функция "Предварительная загрузка ресурсов на конечной точке CDN Azure" docs.microsoft.com/ru-ru/... Также в Verizon есть сжатие gzip, deflate, bzip2, brotili, а в Akamai только gzip. Склоняюсь к тому, что всё же лучше Akamai, а сжатие можно настроить на уровне сервера Digital Ocean. Но нужна оценка профессионала с точки зрения максимальной эффективности.
2. Как поменять контент на странице, если CDN её уже закэшировал? В Cloudflare есть функция Development Mode. Нужна инструкция, как решить эту задачу в Azure.
3. Как CDN передаёт куки на сервер и можно ли управлять этим процессом? Сейчас использую Cloudflare. Трафик на страницы приходит с get-параметрами (в хвосте ссылки прописаны параметры и уникальные значения). Страница записывает эти get-параметры в куки. На странице есть внешние ссылки трекера (TDS, система распределения трафика). При переходе по внешней ссылке трекера, TDS проверяет куки и в зависимости от значения параметра в хвосте изначальной ссылкы, делает редирект по нужной ссылке. Вопрос в том, не будут ли обрезаться эти данные при использовании CDN? С Cloudflare проблем не возникает.
4. Будет ли отличаться настройка CDN для нового домена? Планирую использовать до 15 доменов.
5. Сейчас к одному серверу прикреплено 15 доменов. На части доменов настроен Cloudflare, часть доменов без CDN, на нескольких доменов планирую подключить другой CDN для замера скорости. Не будет проблем при использовании Azure на нескольких доменов, при то что часть доменов подключены к другим CDN?

Предлагайте свои цены, обсудим.

Прошло времени с момента публикации: 4 года 2 месяца 29 дней 16 часов 33 минуты
Раздел: Аутсорсинг и консалтинг / Сетевое администрирование

11 Июля 2020
Бюджет: 2500 руб
Необходимо скопировать 20 страниц (на разных языках) и доработать их в соответствии с требованиями.

Напишите слово "Арбитраж" в начале свое предложения, чтобы я понимал, что вы действительно заинтересованы в проекте и прочитали мои требования. Стандартные спам-сообщения рассматривать не буду, точно не сработаемся.

Привожу примерный список задач, которые требуется выполнить по каждой странице:

1. Скачать, поправить названия и пути файлов;
2. Удалить все лишние скрипты;
3. Подключить фавикон и поменять title;
4. Заменить ссылки на странице;
5. Пробежаться по тексту, заменить названия продукта, который упоминается в тексте, внести небольшие правки в текст при необходимости;
6. Проверить даты на странице, заменить их скриптовыми датами (скрипт и инструкция по настройке имеется);
7. Заменить изображения продуктов на странице;
8. Залить на сервер;
9. Проверить адаптивность.

Подробную инструкцию предоставлю после общения.

Работа рутинная и не требует глубоких знаний вёрстки. Поэтому мне не нужен профессиональный верстальщик. Для выполнения достаточны базовые знания вёрстки и совсем немного js.

Ставка – 125 рублей за 1 страницу (примерно 20-25 минут на подготовку 1 страницы).
Необходимо подготовить 20 таких страниц.

Если вы считаете себя высокопрофессиональным верстальщиком, просьба – не откликайтесь на проект. Он не подойдет вам и вы не подойдёте мне.
Нужен человек с базовыми знаниями вёрстки, не более.

Прошло времени с момента публикации: 4 года 4 месяца 11 часов 57 минут
Раздел: Сайты / Контент-менеджер

30 Декабря 2019
Бюджет: 1000 руб
Необходимо настроить сервер на DO, а именно:

1. Развернуть сервер (операционная система на ваше усмотрение, критерий – максимальная производительность и устойчивость при большом объеме трафика. Предпочтительно CentOS/Ubuntu);

2. Подключить 4 домена к серверу;

3. Настроить доступ через FTP, чтобы можно было загружать файлы через Filezilla сразу в нужную папку любого из 4 доменов;
4. Написать пошаговую инструкцию по 3 пункту;

5. Установить сертификаты Let's Enscript на все домены. А также на алиасы www. Браузеры Яндекс и Chrome не должны выдавать предупреждение net::ERR_CERTIFICATE_TRANSPARENCY_REQUIRED, SSL Server Test www.ssllabs.com/ssltest/i... также должен показывать положительные результаты;

6. Настроить редирект с http на https для всех доменов;

7. Написать пошаговую инструкцию по 4 и 5 пунктам;

8. Прислать все используемые для настройки доступы: SSH (логин, пароль, ключи), панель управления, FTP и прочее.

Прошло времени с момента публикации: 4 года 10 месяцев 10 дней 16 часов 39 минут
Раздел: Аутсорсинг и консалтинг / Системный администратор

29 Ноября 2019
Бюджет: 2500 руб
Нужно сверстать блоки для сайта на движке ABCP. Ссылка на сайт id22691.noda.pro

Движок специализированный под рынок автозапчастей. С точки зрения разработки сайта неудобный и имеет ряд ограничений. Особенности движка описаны в документе с ТЗ, обратите на это внимание при оценке стоимости и срока работы.

Главное ограничение – нет прямого доступа к js, html, css, php файлам. Всё редактируется через инфоблоки с html-редактором внутри личного кабинета. Максимум, что можно сделать – использовать JS.

Подробное ТЗ и описание платформы по ссылке:

docs.google.com/document/...

В заявке указывайте, сможете ли вы реализовать требуемый функционал определения города и подмены контента с чистым JS, без доступа к PHP.

Прошло времени с момента публикации: 4 года 11 месяцев 11 дней 7 часов 41 минута
Раздел: Сайты / Верстка

Наши партнеры
Сведения об ООО «Ваан» внесены в реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий. ООО «Ваан» осуществляет деятельность, связанную с использованием информационных технологий, по разработке компьютерного программного обеспечения, предоставлению доступа к программе для ЭВМ и является правообладателем программы для ЭВМ «Платформа FL.ru (версия 2.0)».