Открытый бета-тест плагина "Backup"
Здравствуйте уважаемые хабровчане LSовцы.
Представляю Вашему вниманию плагин для резервного копирования\сохранения сайта на LiveStreet.
Его можно найти здесь https://github.com/1099511627776/lsbackup
Для чего он был сделан?
Ну если чесно то не нашел бесплатных аналогов(не спорю, может не очень тщательно искал). Единственный плагин который я нашел делал резервные копии БД но не всего сайта.
Его функциональность на данном этапе:
Что планируется:
Порядок работы после установки:
Пока что все. Любая помощь сообщества приветствуется
UPD 10.08.2012
Представляю Вашему вниманию плагин для резервного копирования\сохранения сайта на LiveStreet.
Его можно найти здесь https://github.com/1099511627776/lsbackup
Для чего он был сделан?
Ну если чесно то не нашел бесплатных аналогов(не спорю, может не очень тщательно искал). Единственный плагин который я нашел делал резервные копии БД но не всего сайта.
Его функциональность на данном этапе:
- Сохранение в архив всего сайта (ZIP-архив)
- Фильтрация по шаблонам (в данный момент исключаются директории compiled, cache, tmp, log)
Что планируется:
- Бекап базы БД
- Нормальный пользовательский интерфейс
- Создание стартового скрипта, который бы облегчил «поднятие» сайта из резервной копии с нуля
Порядок работы после установки:
- Жмем backup — идет подготовка файлов (создание списка)
- Жмем Next — идет сохранение файлов в архив
Пока что все. Любая помощь сообщества приветствуется
UPD 10.08.2012
- Добавлена генерация sql дампа
- Немножко переработан и локализирован интерфейс
- отправка бекапа по FTP протоколу — альфа
26 комментариев
Как на счет сохранения файла архива на удаленный ftp сервер?
Плагин выполнается от имени запустившего php (т.е. в большинстве стучаев — www). соответственно, где-то не дан доступ к директории.
На plugins и собственно самом плагине стоит 777, но результат тот же.
И если можно — киньте config.php сюда
Как на счет сохранения файла архива на популярные облачные хостинги dropbox/gdrive/ya.disk/skydrive ???
3р — 1гб
доступ о ftp есть.
Как вариант, использовать ini_set.
Спрашиваю потому что там какраз все вертится на том, что файлы бертся порциями по 100 штук ы добавляются в архив тоже порциями по 100штук. Так же и таблицы дамб (свежая версия на гитхабе) по 10штук за раз через ajax с выводом статистики
То, что берется порциями — это замечательно. Но сомневаюсь, что сжатие 100 файлов уложится в max_execution_time раный 60 секундам, если попадется хотя бы пару файлов из аплоадсов по несколько ГБ.
1 файл архивировался 20сек. хотя да, если попадется больше файлов более 1Гб то будет ajax таймаут в 60сек.
Нужную веЩь вы делаете ;)
думаю не один я ее жду ;)
Сейчас в процессе — разработка утилиты восстановления потому как в данный момент восстановление ручками.
Любые пожелания и тем более патчи приветствуются