Скажем, вы моделируете объект с множеством атрибутов (2400+), намного превышающий физический предел для данного механизма базы данных (например, 1000 SQL Server). Не зная об относительной важности этих точек данных (какие из них горячие/используются чаще всего) помимо ключей домена/кандидата, как бы вы его реализовали?
A) EAV. (boo... Родные реляционные инструменты выкинули окно.)
B) Идите прямо. Первая таблица имеет первичный ключ и 1000 столбцов, вплоть до предела. Следующая таблица - 1000, внешняя - с первой. Последняя таблица - это оставшиеся 400, а также внешние ключи.
C) Равномерно распределите по таблице ceil( n / limit )
. Каждая таблица имеет четное количество столбцов, внешнюю привязку к первой таблице. 800, 800, 800.
D) Что-то еще...
И почему?
Изменить: это скорее философский/общий вопрос, не связанный с какими-либо конкретными ограничениями или двигателями.
Edit ^ 2: Как указывали многие, данные, вероятно, не были нормализованы. В обычном случае деловые ограничения в то время делали глубокие исследования невозможными.