Подтвердить что ты не робот

Бедный человек "lexer" для С#

Я пытаюсь написать очень простой парсер в С#.

Мне нужен лексер - что-то, что позволяет связать регулярные выражения с токенами, поэтому он читает в регулярных выражениях и возвращает мне символы.

Кажется, что я должен использовать Regex для фактического тяжелого подъема, но я не вижу простого способа сделать это. Во-первых, Regex работает только на строках, а не на потоках (почему это??!?).

В принципе, я хочу реализовать следующий интерфейс:

interface ILexer : IDisposable
{
    /// <summary>
    /// Return true if there are more tokens to read
    /// </summary>
    bool HasMoreTokens { get; }
    /// <summary>
    /// The actual contents that matched the token
    /// </summary>
    string TokenContents { get; }
    /// <summary>
    /// The particular token in "tokenDefinitions" that was matched (e.g. "STRING", "NUMBER", "OPEN PARENS", "CLOSE PARENS"
    /// </summary>
    object Token { get; }
    /// <summary>
    /// Move to the next token
    /// </summary>
    void Next();
}

interface ILexerFactory
{
    /// <summary>
    /// Create a Lexer for converting a stream of characters into tokens
    /// </summary>
    /// <param name="reader">TextReader that supplies the underlying stream</param>
    /// <param name="tokenDefinitions">A dictionary from regular expressions to their "token identifers"</param>
    /// <returns>The lexer</returns>
    ILexer CreateLexer(TextReader reader, IDictionary<string, object> tokenDefinitions);
}

Итак, pluz отправляет codz...
Нет, серьезно, я вот-вот начну писать реализацию вышеупомянутого интерфейса, но мне трудно поверить, что в .NET(2.0) уже нет простого способа сделать это.

Итак, какие-либо предложения по простому способу сделать выше? (Кроме того, мне не нужны "генераторы кода". Производительность не важна для этой вещи, и я не хочу вводить какую-либо сложность в процесс сборки.)

4b9b3361

Ответ 1

Исходная версия, которую я опубликовал здесь в качестве ответа, была связана с тем, что она работала только тогда, когда было найдено более одного "регулярного выражения", совпадающего с текущим выражением. То есть, как только только одно регулярное выражение соответствует, оно вернет токен, тогда как большинство людей хотят, чтобы Regex был "жадным". Это особенно касается таких вещей, как "цитируемые строки".

Единственное решение, которое сидит поверх Regex, - это чтение строк за строкой (что означает, что вы не можете иметь токены, которые охватывают несколько строк). Я могу жить с этим - это, в конце концов, бедный человек лексер! Кроме того, обычно полезно получить информацию о номере линии из Lexer в любом случае.

Итак, вот новая версия, которая решает эти проблемы. Кредит также относится к this

public interface IMatcher
{
    /// <summary>
    /// Return the number of characters that this "regex" or equivalent
    /// matches.
    /// </summary>
    /// <param name="text">The text to be matched</param>
    /// <returns>The number of characters that matched</returns>
    int Match(string text);
}

sealed class RegexMatcher : IMatcher
{
    private readonly Regex regex;
    public RegexMatcher(string regex)
    {
        this.regex = new Regex(string.Format("^{0}", regex));
    }

    public int Match(string text)
    {
        var m = regex.Match(text);
        return m.Success ? m.Length : 0;
    }

    public override string ToString()
    {
        return regex.ToString();
    }
}

public sealed class TokenDefinition
{
    public readonly IMatcher Matcher;
    public readonly object Token;

    public TokenDefinition(string regex, object token)
    {
        this.Matcher = new RegexMatcher(regex);
        this.Token = token;
    }
}

public sealed class Lexer : IDisposable
{
    private readonly TextReader reader;
    private readonly TokenDefinition[] tokenDefinitions;

    private string lineRemaining;

    public Lexer(TextReader reader, TokenDefinition[] tokenDefinitions)
    {
        this.reader = reader;
        this.tokenDefinitions = tokenDefinitions;
        nextLine();
    }

    private void nextLine()
    {
        do
        {
            lineRemaining = reader.ReadLine();
            ++LineNumber;
            Position = 0;
        } while (lineRemaining != null && lineRemaining.Length == 0);
    }

    public bool Next()
    {
        if (lineRemaining == null)
            return false;
        foreach (var def in tokenDefinitions)
        {
            var matched = def.Matcher.Match(lineRemaining);
            if (matched > 0)
            {
                Position += matched;
                Token = def.Token;
                TokenContents = lineRemaining.Substring(0, matched);
                lineRemaining = lineRemaining.Substring(matched);
                if (lineRemaining.Length == 0)
                    nextLine();

                return true;
            }
        }
        throw new Exception(string.Format("Unable to match against any tokens at line {0} position {1} \"{2}\"",
                                          LineNumber, Position, lineRemaining));
    }

    public string TokenContents { get; private set; }

    public object Token { get; private set; }

    public int LineNumber { get; private set; }

    public int Position { get; private set; }

    public void Dispose()
    {
        reader.Dispose();
    }
}

Пример программы:

string sample = @"( one (two 456 -43.2 "" \"" quoted"" ))";

var defs = new TokenDefinition[]
{
    // Thanks to [steven levithan][2] for this great quoted string
            // regex
    new TokenDefinition(@"([""'])(?:\\\1|.)*?\1", "QUOTED-STRING"),
    // Thanks to http://www.regular-expressions.info/floatingpoint.html
    new TokenDefinition(@"[-+]?\d*\.\d+([eE][-+]?\d+)?", "FLOAT"),
    new TokenDefinition(@"[-+]?\d+", "INT"),
    new TokenDefinition(@"#t", "TRUE"),
    new TokenDefinition(@"#f", "FALSE"),
    new TokenDefinition(@"[*<>\?\-+/A-Za-z->!]+", "SYMBOL"),
    new TokenDefinition(@"\.", "DOT"),
    new TokenDefinition(@"\(", "LEFT"),
    new TokenDefinition(@"\)", "RIGHT"),
    new TokenDefinition(@"\s", "SPACE")
};

TextReader r = new StringReader(sample);
Lexer l = new Lexer(r, defs);
while (l.Next())
{
    Console.WriteLine("Token: {0} Contents: {1}", l.Token, l.TokenContents);
}

Вывод:

Token: LEFT Contents: (
Token: SPACE Contents:
Token: SYMBOL Contents: one
Token: SPACE Contents:
Token: LEFT Contents: (
Token: SYMBOL Contents: two
Token: SPACE Contents:
Token: INT Contents: 456
Token: SPACE Contents:
Token: FLOAT Contents: -43.2
Token: SPACE Contents:
Token: QUOTED-STRING Contents: " \" quoted"
Token: SPACE Contents:
Token: RIGHT Contents: )
Token: RIGHT Contents: )

Ответ 2

Если у вас нет очень нетрадиционной грамматики, я настоятельно рекомендую не сворачивать ваш собственный лексер/парсер.

Я обычно считаю, что lexer/parsers для С# действительно отсутствуют. Тем не менее, F # поставляется с fslex и fsyacc, которые вы можете узнать, как использовать в этом уроке. Я написал несколько лексеров/парсеров в F # и использовал их в С#, и это очень легко сделать.

Я полагаю, что это не очень плохой человек lexer/parser, видя, что вам нужно изучить совершенно новый язык для начала, но его начало.

Ответ 3

Это может быть излишним, но посмотрите на Irony на CodePlex.

Irony - это набор для разработки языков на платформе .NET. Он использует гибкость и мощь языка С# и .NET Framework 3.5 для реализации совершенно новой и оптимизированной технологии построения компилятора. В отличие от большинства существующих решений yacc/lex-стиля, Irony не использует генерации кода сканера или парсера из грамматических спецификаций, написанных на специальном метаязыке. В Иронии грамматика целевого языка кодируется непосредственно в С#, используя перегрузку оператора для выражения конструкций грамматики. В модуле иронического сканера и синтаксического анализатора используется грамматика, закодированная как класс С# для управления процессом синтаксического анализа. См. Образец грамматики выражения для примера определения грамматики в классе С# и использования его в рабочем синтаксическом анализаторе.

Ответ 4

Изменение моего исходного ответа.

Посмотрите SharpTemplate, в котором есть синтаксические анализаторы для разных типов синтаксиса, например

#foreach ($product in $Products)
   <tr><td>$product.Name</td>
   #if ($product.Stock > 0)
      <td>In stock</td>
   #else
     <td>Backordered</td>
   #end
  </tr>
#end

Он использует регулярные выражения для каждого типа токена:

public class Velocity : SharpTemplateConfig
{
    public Velocity()
    {
        AddToken(TemplateTokenType.ForEach, @"#(foreach|{foreach})\s+\(\s*(?<iterator>[a-z_][a-z0-9_]*)\s+in\s+(?<expr>.*?)\s*\)", true);
        AddToken(TemplateTokenType.EndBlock, @"#(end|{end})", true);
        AddToken(TemplateTokenType.If, @"#(if|{if})\s+\((?<expr>.*?)\s*\)", true);
        AddToken(TemplateTokenType.ElseIf, @"#(elseif|{elseif})\s+\((?<expr>.*?)\s*\)", true);
        AddToken(TemplateTokenType.Else, @"#(else|{else})", true);
        AddToken(TemplateTokenType.Expression, @"\${(?<expr>.*?)}", false);
        AddToken(TemplateTokenType.Expression, @"\$(?<expr>[a-zA-Z_][a-zA-Z0-9_\[email protected]]*?)(?![a-zA-Z0-9_\[email protected]])", false);
    }
}

Используется как

foreach (Match match in regex.Matches(inputString))
{
    ...

    switch (tokenMatch.TokenType)
    {
        case TemplateTokenType.Expression:
            {
                currentNode.Add(new ExpressionNode(tokenMatch));
            }
            break;

        case TemplateTokenType.ForEach:
            {
                nodeStack.Push(currentNode);

                currentNode = currentNode.Add(new ForEachNode(tokenMatch));
            }
            break;
        ....
    }

    ....
}

Он толкает и выскакивает из стека, чтобы сохранить состояние.

Ответ 5

Malcolm Crowe имеет отличную реализацию LEX/YACC для С# здесь. Работает путем создания регулярных выражений для LEX...

Прямая загрузка

Ответ 6

Можно использовать Flex и Bison для С#.

Исследователь из Университета Ирландии разработал частичную реализацию, которая может быть найдена по следующей ссылке: Flex/Bison для С#

Это определенно можно считать "бедным мужчиной lexer", поскольку у него все еще есть некоторые проблемы с его реализацией, такие как отсутствие препроцессора, проблемы с "обманом другим" и т.д.

Ответ 7

Если вы посмотрите на ExpressionConverter в моей библиотеке WPF Converters, он имеет базовый лексинг и синтаксический анализ выражений С#. Никакое регулярное выражение не связано с памятью.