Я работаю разработчиком в небольшой команде разработчиков, и что-то раздражало меня до такой степени, что я решил действовать...
Oracle не поддерживает бит-тип данных - или, что-то еще, что имеет очевидный смысл в сценариях true/false. Однако, несмотря на то, что до того, как я присоединился к команде, мои предки решили вместо этого использовать поля char (1), используя специальную букву для обозначения yes/true. К сожалению, наше приложение используется людьми во всем мире, и по причинам, которые откровенно бросают вызов всем моим попыткам понять, используемая ценность варьируется в зависимости от локализации.
Да, я знаю, что совершенно ненужно для значений в фоновом контенте, которые пользователь никогда не видит - однако...
Я заметил, что эта практика, похоже, продвигается вперед в новое развитие, которое кажется мне безумным, поэтому я думаю о том, чтобы вместо этого предлагать Number (1,0) - 0 считаться ложным/нет, что-то иначе интерпретируется как true/yes...
Простой вопрос - может ли кто-нибудь подумать о причине, что это может быть плохая идея?
Пока мы об этом знаем, кто-нибудь знает, почему Oracle не поддерживает простой булевский тип? Разве это не опечатка?
Приветствия в ожидании,
Martin.