Мне кажется, что теоретически можно использовать WebGL для вычисления - например, вычисления простых чисел или π или что-то в этом направлении. Однако из того, что я видел, сам шейдер не написан в Javascript, поэтому у меня есть несколько вопросов:
-
На каком языке написаны шейдеры? - Было бы даже стоило попытаться сделать такое, учитывая, как работают шейдеры?
- Как передавать переменные взад и вперед во время выполнения? Или, если это невозможно, как передать информацию после завершения шейдера?
- Поскольку это не Javascript, как бы обрабатывать очень большие целые числа (BigInteger в Java или портированную версию в Javascript)?
- Я бы предположил, что это автоматически компилирует script, чтобы он работал по всем ядрам на графической карте, могу ли я получить подтверждение?
Если это уместно, в этом конкретном случае я пытаюсь определить довольно большие числа как часть расширенного проекта compsci. [/p >
EDIT:
- Шрифты WebGL записываются в GLSL.