извлечь только уникальные записи?
                  
                  
                  Есть 100 гиговая база данных словарей в мускуле, я делаю такой запрос:
                  
                  
                  SELECT DISTINCT(dic) FROM dictonary into outfile 'C:/path/to/file.txt'
                  
                  
                  И в папке data (рабочая директория мускуля) создается файл ibtmp1 который сначала стремительно наполняется информацией, но потом затухает и тихонько начинает незначительно увеличиваться в размере, ждал дней 5, после чего мускуль от объема данных походу падает или уходит в глубокую нирвану, т.е. дальше ждать уже бессмысленно.
                  
                  
                  
                  
                  
                  
                  
                  
                  сама структура таблицы: 
                  
                  
                  
                  
                  
                  CREATE TABLE dictonary (
                  
                  
                    dic TEXT NULL
                  
                  
                  )
                  
                  
                  COLLATE='latin1_swedish_ci'
                  
                  
                  ENGINE=MyISAM
                  
                  
                  ;
                  
                  
                  
                  
                  
                  Судя по всему или мускуль такой объем данных обработать не может, или у меня где то косяк в структуре или действиях.
                  
                  
                  Забегая вперед сразу скажу, линуксовая софтина sort тоже давится таким объемом, а кроме неё с огромными объемами ни одна софтина не справится (ждать месяцы для сортировки я не готов), какие то сложные решения типа других СУБД тоже мало интересны.
                  
                  
                  Буду признателен, если кто что подскажет.
                  
                  
                
1. Создай индекс
Ого как вы ее раздули. Здесь надо массово-параллельную БД
Обсуждают сегодня