Колись наче питав вже.. Є близько 1.5Тб моїх фоточок та відео в архіві, пробував банально через Google takeout, але там і мусора багато інших файлів, і розбивка по маленьких файлах які не можна качнути без авторизації.. не зручно. У мене на клієнтському компі немає 1.5Тб місця, і 100+ файлів через комп вручну качати виглядає трохи геморно. Які є ще варіанти? Кінцева ціль - банально фото та відео мати на Synology сервері локальному, без інших текстових або супроводжуючих файлів. Якщо інші файли ще можна скрипт написати для видалення, то качати тільки клієнтським компом цю кучу архівів марна справа.
А, качати потрібно в оригінальній якості відео і фото (вони в мене бекапляться саме в оригіналі).
AL® 27.09.2025 09:55 пишет: Колись наче питав вже.. Є близько 1.5Тб моїх фоточок та відео в архіві, пробував банально через Google takeout, але там і мусора багато інших файлів, і розбивка по маленьких файлах які не можна качнути без авторизації.. не зручно. У мене на клієнтському компі немає 1.5Тб місця, і 100+ файлів через комп вручну качати виглядає трохи геморно. Які є ще варіанти? Кінцева ціль - банально фото та відео мати на Synology сервері локальному, без інших текстових або супроводжуючих файлів. Якщо інші файли ще можна скрипт написати для видалення, то качати тільки клієнтським компом цю кучу архівів марна справа.
А, качати потрібно в оригінальній якості відео і фото (вони в мене бекапляться саме в оригіналі).
О! Рік тому назад вирішував схожу проблему, тільки у мене не фоточки були. Но не важливо. Короче - в Takeout налаштувати максимальний розмір файлу. Там 50 Гб здається. Далі - отримати посилання на закачку на пошту. Ще далі - через putty або інший термінал - ssh на Synology, а на ньому wget от те посиалння, що сформував Takeout. Ну а далі розпакувати вже на NASі... Довго. Муторно. Але працює. Мені знадобилось десь 30+ ітерацій і зважаючи на швидкість каналу, розпаковку і так далі - десь місяць. А. Я ще по структурам на NAS розкладав, тому воно довго у мене тривало. Ну або ще як варіант - докинути на час міграції зовнішній HDD і тоді спочатку робити бекап на нього, потім з нього на Synology. Ну а якщо хочеться максимально автоматизувати, то спробувати підняти на Synology rclone і до нього прикрутити ось це: https://github.com/rclone/gphotosdl
Так.. Але пару моментів. 1. Максимальний розмір 50гб, таких файлів у мене 350+ штук. Велика проблема в тому, що ці посилання не працюють без авторизації. Тобто відкрити наприклад wget або навіть в анонімні вкладці не вдається, перекидує на авторизацію гугд акка. Тобто треба качати тільки вручну з клієнтського компа. Посилання працюють тільки 1 тиждень. На клієнтському компу швидкість десь під соточку, тобто 1.5Тб , якщо буде качати постійно, без перерви на сон і постійно канал забивати - півтора дня. Якщо на реальних умовах, що я не робот, мені треба перерва на сон та їжу, що не завжди я буду знати коли саме докачався один файл і потрібно запустити інший, щоб не забивати канал - то буде 3-4 дні, в цілому встигаю, але це тупо ці 3-4 дні треба купити займатись вручну. До того ж, в архіві купа мусору, типуjson файли та інші супроводжуючі файли, ще їх потрібно "чистити".
Це крайній варіант. Чи є якісь альтернативні варіанти?
Щодо rclone та гугл API, то там все ще з 2018р бага, фотки качаються не оригінали, без exif даних і т.д. Після 2023р сторонні розробники тулзів опустили руки (здались), бо обхідні маневри занадто мутні, а гугл так і не фіксить баги, а лише закриває. Наприклад, ще в 2019р гугл закрив багу і сказав, якщо додати "d" в url, то буде оригінал, але ні.. не працює. В результаті, маємо або не оригінал без мета-дати , або просто непрацюючу тулзу.
Ехх, помітив зараз, що один файл гугл пропустив. 142-го файла архіва немає. Не знаю, чи зможу все відкрити, якщо одного файла немає? Біда в тому, що якщо заново запросити бекап, файли по іншому створюються, перевіряв. Тобто просто скачати з другого запиту 142-ий файл не проканає.
Rucha 28.09.2025 22:31 пишет: Просто треба розуміти, що Google Photo - це не бекап. Це сервіс збереження та обробки зображень.
А нічого що людина саме за це і питає - як зробити бекап Google Photo?
По суті - я до червня користувався https://github.com/gilesknap/gphotos-sync, але зараз не прцює бо гугл випиляв API який там фігурував. Альтернативи (крім takeout) наразі нема.
В мене саянтолоджі нема, але підозрю що там є samba? Можно підʼєднати на клієнті і качати туди (якщо не вдасться побороти auth)
Djohny 29.09.2025 16:49 пишет: download station в сино не?
Ні, то торренти більше, ніж реально download station.
Але, здається знайшов спосіб. При запиті takeout можна вибрати google drive а не на пошту, і тоді воно само папку takeout в корні мого drive робить і туди закидує архіви. А в сінолоджи є можливість підключити гугл-диск також. І тепер мій синолоджи тяне на фоні всю ту купу файлів. Звісно, на гугл диску має вистачити місця. У мене 2Тб, тож під завязку вистачило.