Nie jest tak różowo, ale 3 dni testów na localhoście i na serwerze, trochę literatury i gugiel dały pożądany efekt końcowy i nadzieję, że wiem jak to zrobić.
Metoda którą zastosowałem:
0. Czyszczenie bazy:
a. usunięcie logów botów, trackera i innych niepotrzebnych śmieci
b. optymalizacja i sprawdzenie bazy
1. Instalacja mysqldumper'a i backup całej bazy (w ustawieniach UTF8 bez względu na kodowanie backupowanej bazy (!) włączona kompresja *.gz)
2. Download backupu i rozpakowanie bazy na PC (totalcmd)
3. Zmiana kodowania gżegżółką:
a. odhaczone wszystkie opcje w zakładce konwersja)
b. konwersja z ISO-8859-2 na UTF8 (encje w każdej konfiguracji dawały "krzaki")
c. plik miał prawie 700MB - poszło bez problemu
4. Spakowanie skonwertowanej bazy do *.gz (totalcmd)
5. Upload pliku do katalogu mysqldumpera i odtworzenie bazy z tego pliku
6. Próba wejścia na forum i... cannot ... czyli wysypka.
7. Przywrócenie z backupu tabel, które moim zdaniem nie zawierały żadnych polskich znaków (~47 tabel, niektóre, puste zostawiłem)
8. F5 na klawiaturze i jest - wszystko ładnie, z ogonkami i bez żadnych krzaków (nie wiem ja PW - nie robiłem konwersji z 2.3.x do 3.0.5)
Wnioski:
1. Bigdump nie nadaje się wbrew nazwie do ładowania dużych baz, bo:
a. przy dużych tabelach (jak np. ibf_post) producent każe wyłączyć "rozszerzone dodania" przy eksporcie - daje to taki efekt, że plik potraja swoją objętość - eksport z włączoną opcją "rozszerzonych dodań" krzaczy forum w każdej próbie, a zrobiłem ich sporo
b. potrafi "zabić" dedyka, mimo ostrożnego ustawienia (1000 lini, 100ms delay'a) - i za każdym razem albo sam się wieszał, albo dramatycznie podnosił load serwera po mniej więcej 3/4 przywracania - load dochodził do 300(!)
c. backup trzeba sobie phpmyadminem zrobić - nie każdy serwer to udźwignie (no chyba, że się ma dostęp do shella i możliwość uruchomienia mysqldump'a - nie próbowałem)
2. Gżegżółka konwertuje nawet spore pliki
3. Nobla temu kto napisze gżegżółkę pod linuxa - najwięcej czasu zajmuje robienie backupu, download/upload i restore bazy (w moim przypadku łącznie prawie 3h, a łącze mam szybkie, serwer też)
4. Trzeba by sporządzić listę tabel, które powinno się skonwertować. Backup byłby mniejszy i stresów mniej.
5. Metoda kodowania napisów w poszczególnych tabelach nie ma znaczenia (screen 3-ci z pierwszego posta ( przestawianie przed i po konwersji nic nie zmienia)
6. Zastanawiam się, czy przy upgrade chodzącego forum (a nie kopii testowej) konwersję ISO/UTF lepiej robić przed czy po upgrade (?)
To tyle na szybko.
Nie twierdzę, że powyższa metoda da każdemu dobry wynik - w moim przypadku dała