RustでWebAssemblyインタプリタを作ったのでその実装の話や、wasmの仕様についての記事です。
HList
を使ったジェネリックプログラミングの話や、最後の方には「自作言語 on 自作wasmインタプリタ on 自作wasmインタプリタ」みたいな話も出てきます。
分かりにくい所や間違っている所は指摘してくださると助かります。
https://github.com/kgtkr/wasm-rs
作った成果物のリポジトリです。まだpublishはしていませんがクレートになっています。
cargoのexample実行に対応しているのでそれを見ればだいたい分かると思います。
今回はadc-2019-12-22
というタグがついたコミットのソースを元に解説していきます。
https://github.com/kgtkr/wasm-rs/tree/adc-2019-12-22
この記事では仕様書を読みながら順番に実装を解説していきます。
https://webassembly.github.io/spec/core/index.html
いくつかの章に分かれていますが、実装に深く関わるのは以下です。
今回はこのうちValidation
とText Format
を除く部分を実装しました。
Validation
は読み込んだモジュールの静的検証についての仕様が書かれています。静的検証は型チェックみたいなものです。今回は間に合わなかったので実装しませんでした。つまり入力されるwasmコードは常に正しいものとして扱います。
Text Format
はwatというwasmのテキストフォーマットについての仕様が書かれています。watとはwasmの命令と1対1対応の命令を持っているテキストフォーマットの言語です。wasmはバイナリフォーマットなので人間が読み書きするのは難しいですが、watであれば比較的読み書きしやすいです。wasmを機械語とするならwatはアセンブリ言語みたいなものです。この記事で出てくるwasmのサンプルコードは基本的にwatのコードです。これを実装することでwasmとwatの相互変換ができるようになりますが、今回はwasmバイナリを読み込んで実行できればいいので実装しませんでした。
wasmインタプリタの実装には直接関係ありませんが、バイナリフォーマットのデコードだけでなくエンコード処理も実装しています。これは元々wasmに出力する自作言語をRustで作ろうと思いバイナリの出力コードを書いていたらインタプリタを作りたくなったから作ったという経緯が理由だったりします。
上記のwasm仕様書はwasmのcore仕様の物です。他にもJSのWebAssembly APIについての仕様などがありますが今回は関係ないので無視します。
wasmモジュールの構造についての仕様が書かれています。ここを読んでRustのデータ構造に落とし込んでいきます。
例えばvaltype
は以下のように定義されています。
valtype ::= i32 | i64 | f32 | f64
これをRustのデータ構造にすると以下のようになります。
pub enum ValType {
I32,
I64,
F32,
F64,
}
このように順番に定義していって最終的には以下のようなwasmモジュールを表す構造体が定義出来れば完成です。
pub struct Module {
pub types: Vec<FuncType>,
pub funcs: Vec<Func>,
pub tables: Vec<Table>,
pub mems: Vec<Mem>,
pub globals: Vec<Global>,
pub elem: Vec<Elem>,
pub data: Vec<Data>,
pub start: Option<Start>,
pub imports: Vec<Import>,
pub exports: Vec<Export>,
}
Execution
は長くなるので先にこっちの解説をします。この章はwasmのバイナリフォーマットについての仕様が書かれています。これを読み実装することで先ほど定義したデータ構造とバイナリデータの相互変換ができるようになります。今回はパーサーコンビネーターライブラリにnom
を使いました。Rustには他にもcombine
というパーサーコンビネーターライブラリがあります。combine
は使ったことがありましたが、nom
は使ったことがなかったからという理由でnom
を採用しただけで深い理由はありません。昔のnom
はマクロをかなり多用したライブラリでしたがマクロを使わずに書けるようになっており使いやすかったです。他にもバイト列と数値型のデコード/エンコードなどを行うのにbyteorder
を、leb128という整数の可変長フォーマットのデコード/エンコードを行うのにleb128
というライブラリを使っています。
まずバイト列からデコードできるデータ型を表すトレイトとしてDecoder
トレイトを定義します
use nom::{sequence::tuple, IResult};
pub trait Decoder
where
Self: std::marker::Sized,
{
fn decode(input: &[u8]) -> IResult<&[u8], Self>;
fn decode_to_end(input: &[u8]) -> Result<Self, nom::Err<(&[u8], nom::error::ErrorKind)>> {
let (_, (x, _)) = tuple((Self::decode, eof()))(input)?;
Ok(x)
}
}
decode
関数はバイト列を受け取って、未処理のバイト列と結果を返します。デコードは失敗する可能性があるのでnom
のIResult
を使っています。
decode_to_end
関数はバイト列を受けとって結果を返します。eof
は空の入力を受け取ったら成功し、そうでなければ失敗する独自コンビネーターです。
次にバイト列にエンコードできるデータ型を表すトレイトとしてEncoder
トレイトを定義します。
pub trait Encoder {
fn encode(&self, bytes: &mut Vec<u8>);
fn encode_to_vec(&self) -> Vec<u8> {
let mut bytes = Vec::new();
self.encode(&mut bytes);
bytes
}
}
encode
関数は可変のバイト列を受け取ってエンコード結果をそこに書き込んでいきます。encode_to_vec
はエンコードしてバイト列を返します。
この2つのトレイトを先ほどStructure
を見ながら定義したデータ構造に実装していくことでデコードとエンコードを行います。例えばvaltype
の仕様は以下のようになっています。
valtype ::= 0x7F => i32
| 0x7E => i64
| 0x7D => f32
| 0x7C => f64
これにDecoder
とEncoder
を実装すると以下のようになります。token
は指定されたトークンを読む独自コンビネーターです。
impl Decoder for ValType {
fn decode(input: &[u8]) -> IResult<&[u8], ValType> {
alt((
map(parser::token(0x7f), |_| ValType::I32),
map(parser::token(0x7e), |_| ValType::I64),
map(parser::token(0x7d), |_| ValType::F32),
map(parser::token(0x7c), |_| ValType::F64),
))(input)
}
}
impl Encoder for ValType {
fn encode(&self, bytes: &mut Vec<u8>) {
bytes.push(match self {
ValType::I32 => 0x7f,
ValType::I64 => 0x7e,
ValType::F32 => 0x7d,
ValType::F64 => 0x7c,
});
}
}
wasmではバイナリ容量を節約するためにleb128
という可変長の整数エンコード形式を使っています。このエンコード形式は小さな数値であれば1バイトにエンコードでき、また任意の大きな数値を扱うことができます。ただしwasmでは大きさの上限が仕様で決まっています。また符号付きと符号なしがありますが両方使われています。
例えばu32
に対する実装は以下のようになっています。
impl Decoder for u32 {
fn decode(input: &[u8]) -> IResult<&[u8], u32> {
parser::io_read(|rb| {
leb128::read::unsigned(rb)
.ok()
.and_then(|x| u32::try_from(x).ok())
})(input)
}
}
impl Encoder for u32 {
fn encode(&self, bytes: &mut Vec<u8>) {
leb128::write::unsigned(bytes, *self as u64).unwrap();
}
}
io_read
はio::Reader
を受け取ってデコードするライブラリの関数をnom
のコンビネーターに変換する独自コンビネーターです(ソース)。ここではleb128
というライブラリを使うことで簡単に実装しています。
バイナリ仕様にはSection
というものが出てきます。Section
はType Section
、Import Section
などがあり、さっき定義したModule
構造体の各フィールドと大体対応しています。ただしfuncs
フィールドは関数のシグネチャのみのFunction Section
と、関数の本体であるCode Section
に分かれています。これはシグネチャだけを先に定義することでバイト列のストリームを受け取ってデコードしたり、検証したりするためです。また、メタデータとして自由に使えるCustom Section
というものもあります。
各セクションはセクションID,本体のバイト数,本体
のようにエンコードされます。
各セクションのデコーダー/エンコーダーや、セクションのコンビネーターをいい感じに定義して最終的に以下のようにデコーダーとエンコーダーをModule
に実装します。
impl Decoder for Module {
fn decode(input: &[u8]) -> IResult<&[u8], Module> {
map(
tuple((
tuple((
parser::token(0x00),
parser::token(0x61),
parser::token(0x73),
parser::token(0x6d),
parser::token(0x01),
parser::token(0x00),
parser::token(0x00),
parser::token(0x00),
)),
tuple((p_costoms, p_section(Byte(1), Vec::<FuncType>::decode))),
tuple((p_costoms, p_section(Byte(2), Vec::<Import>::decode))),
tuple((p_costoms, p_section(Byte(3), Vec::<TypeIdx>::decode))),
tuple((p_costoms, p_section(Byte(4), Vec::<Table>::decode))),
tuple((p_costoms, p_section(Byte(5), Vec::<Mem>::decode))),
tuple((p_costoms, p_section(Byte(6), Vec::<Global>::decode))),
tuple((p_costoms, p_section(Byte(7), Vec::<Export>::decode))),
tuple((p_costoms, p_section(Byte(8), Start::decode))),
tuple((p_costoms, p_section(Byte(9), Vec::<Elem>::decode))),
tuple((p_costoms, p_section(Byte(10), super::values::p_vec(p_code)))),
tuple((p_costoms, p_section(Byte(11), Vec::<Data>::decode))),
p_costoms,
)),
|(
_,
(_, types),
(_, imports),
(_, funcs),
(_, tables),
(_, mems),
(_, globals),
(_, exports),
(_, start),
(_, elem),
(_, code),
(_, data),
_,
)| Module {
types: types.unwrap_or_else(Vec::new),
funcs: funcs
.unwrap_or_else(Vec::new)
.into_iter()
.zip(code.unwrap_or_else(Vec::new))
.map(|(type_, (locals, body))| Func {
type_,
locals,
body,
})
.collect::<Vec<_>>(),
imports: imports.unwrap_or_else(Vec::new),
tables: tables.unwrap_or_else(Vec::new),
mems: mems.unwrap_or_else(Vec::new),
globals: globals.unwrap_or_else(Vec::new),
exports: exports.unwrap_or_else(Vec::new),
start,
elem: elem.unwrap_or_else(Vec::new),
data: data.unwrap_or_else(Vec::new),
},
)(input)
}
}
impl Encoder for Module {
fn encode(&self, bytes: &mut Vec<u8>) {
bytes.push(0x00);
bytes.push(0x61);
bytes.push(0x73);
bytes.push(0x6d);
bytes.push(0x01);
bytes.push(0x00);
bytes.push(0x00);
bytes.push(0x00);
encode_section(Byte(1), &self.types, bytes);
encode_section(Byte(2), &self.imports, bytes);
encode_section(
Byte(3),
self.funcs.iter().map(|x| &x.type_).collect::<Vec<_>>(),
bytes,
);
encode_section(Byte(4), &self.tables, bytes);
encode_section(Byte(5), &self.mems, bytes);
encode_section(Byte(6), &self.globals, bytes);
encode_section(Byte(7), &self.exports, bytes);
encode_section(Byte(8), &self.start, bytes);
encode_section(Byte(9), &self.elem, bytes);
encode_section(
Byte(10),
self.funcs.iter().map(|x| Code(x)).collect::<Vec<_>>(),
bytes,
);
encode_section(Byte(11), &self.data, bytes);
}
}
p_costoms
は任意個のカスタムセクションをパースするパーサー(ソース)、p_section
はセクションIDと本体のデコーダーを受け取ってセクションのパーサーを作るコンビネーター(ソース)です。セクションは省略することができるのでそこらへんの処理もいい感じにしています。encode_section
はセクションをエンコードする関数で、セクションが空ならセクションごと省略してしまうみたいな処理が中に入っています(ソース)。このような「空であれば省略」といった処理を抽象化するのに空かの判定や、空でない値を取り出す機能を持つZero
という名前のトレイトを定義していて、Option<T>
とVec<T>
に実装しています。(ソース)
せっかくなのでwasmの簡単なバイナリを読んでみましょう。例にするwatは以下です。
(module
(func $add (param $a i32) (param $b i32) (result i32)
get_local $a
get_local $b
i32.add
)
(export "add" (func $add))
)
2つのi32
値を受け取って足した値を返す関数を定義して"add"
という名前でexportしているだけの簡単なモジュールです。
wasmには変数名がないのでwatの変数名は数値のインデックス値に変換されたり、関数を宣言すると自動でtype
が宣言されたりします。上記のwatにそのような変換を手動でしてなるべくwasmに近づけたwatが以下です。
(module
(type (func (param i32) (param i32) (result i32)))
(func (type 0)
get_local 0
get_local 1
i32.add
)
(export "add" (func 0))
)
この上記2つのwatは同等で、wasmに変換すると同じwasmを出力します。このwatをwasmに変換して16進数で表現したものが以下です。
0000000 00 61 73 6d 01 00 00 00 01 07 01 60 02 7f 7f 01
0000010 7f 03 02 01 00 07 07 01 03 61 64 64 00 00 0a 09
0000020 01 07 00 20 00 20 01 6a 0b
意味ごとに区切ってインデントと解説を入れたのが以下です。
00 61 73 6d // "\0asm"という文字列。これは固定
01 00 00 00 // wasmのバージョンは1。リトルエンディアン
/* Type Section */
01 // Section IDは1(Type Section)
07 // セクション本体のサイズは7。ここより下は本体
01 // typeの宣言数は1
60 // 関数の型であることを表す。バージョン1では関数の型しかないので固定
02 // 引数の数を表す。引数は2つ
7f // i32型を表す
7f // i32
01 // 返り値の数を表す。バージョン1では0か1
7f // i32
/* Function Section */
03 // Section IDは3
02 // セクション本体のサイズは2
01 // 関数の宣言数
00 // 関数の型は0番目に定義されたtype
/* Export Section */
07 // Section IDは7
07 //セクション本体のサイズは7
01 // exportの数
03 // export名のバイト数
61 64 64 // addという文字列
00 // 関数のexportであることを表す
00 // 0番目に定義された関数をexportする
/* Code Section */
0a // Section IDは10
09 // セクション本体のサイズは9
01 // 関数本体の宣言数(Function Sectionの関数の宣言数と一致する)
07 // 関数本体のサイズ
00 // ローカル変数の宣言数。今回は0
20 00 // get_local 0
20 01 // get_local 1
6a // i32.add
0b // end
proptest
を使った自動テストについてです。proptest
は以下のように書く事でランダムにデータが与えられ、それに対する性質を書くことで楽にテストを書くことができるツールです。
proptest!(|(x: T)| {
// xが満たすべき性質(満たさなければpanic)
});
今回はASTをランダムで自動生成→ASTをエンコードしてバイナリに変換→バイナリをデコードして元のASTに戻るかという検証に使いました。再利用したいのでidentity_encode_decode
というヘルパー関数を定義します。Arbitrary
トレイトはランダムに値を自動生成できる型が実装するトレイトです。
pub fn identity_encode_decode<T: Arbitrary + Encoder + Decoder + PartialEq>() {
proptest!(|(x: T)| {
assert_eq!(Decoder::decode_end(&x.encode_to_vec()), Ok(x));
});
}
今回も例としてvaltype
を使います。
まずテスト対象のValType
に#[cfg_attr(test, derive(Arbitrary))]
をつけてArbitrary
トレイトを自動導出します。(cfg_attr
によってテスト時のみ自動導出しています)。
次にテスト関数に以下の一行を追記します。
identity_encode_decode::<ValType>();
これだけで「任意のValType
に対してエンコード→デコードすると元に戻るか」ということを確認することが出来てとても楽です。
ただし問題もあり再帰構造を含むとArbitrary
トレイトの自動導出ができません。自分でArbitrary
トレイトの実装をするのは大変なので今回は再帰構造を含まないデータ型のみでproptest
を使った自動テストを行いました。
wasmのランタイム構造、実行仕様などについて書かれています。実装にはnum
、frunk
、generic-array
、typenum
を使っています。num
は数値に関するトレイトなどが定義されているライブラリです。frunk
はGenericプログラミングをするためのライブラリでHList
などが定義されています。generic-array
は長さを型パラメーターで渡せる固定長配列を提供しているライブラリで、typenum
はgeneric-array
が依存している型レベル整数のライブラリです。
実装にfrunk
というライブラリのGenericとHListを使っています(CoproductやLabelledGenericもありますが今回は使いません)。
HListは再帰的な構造を持つタプルのようなものです。例えば(A, B, C, D)
をHListにするとHCons<A, HCons<B, HCons<C, HCons<D, HNill>>>>
となります。そしてGenericはRepr
という関連型を持つトレイトで、HList
やCoproduct
と相互変換できるデータ型を表します。Repr
は変換先の型を表します。これの何が嬉しいかというとGeneric
トレイトさえマクロなどで自動導出してしまえばマクロを使わずに一般的にデータ型に様々なトレイトを実装することができるようになります。例えば、impl PartialEq for HNil
、impl<H: PartialEq, T: PartialEq + HList> PartialEq for HCons<H, T>
を実装してしまえば全てのフィールドがPartialEq
を実装している任意の構造体でPartialEq
が使えるようになります。再帰的な構造になっているので()
、(A,)
、(A, B)
、(A, B, C)
、(A, B, C, D)
…の全てに実装するみたいな事をする必要はありません。とても便利ですね。
val
はi32
/i64
/f32
/f64
のいずれかであると書かれているので以下のように定義します。
pub enum Val {
I32(i32),
I64(i64),
F32(f32),
F64(f64),
}
Val
の関連関数に、val_type
というVal
を受け取ってValType
を返す関数、unwrap_i32
のようなVal
を受け取ってi32
を返す関数(Val::I32(x)
でなければパニック)も定義します。
そして次にいくつかのトレイトを定義します。
まずPrimitiveVal
です。
pub trait PrimitiveVal: Sized {
fn try_from_val(val: Val) -> Option<Self>;
fn wrap_val(self) -> Val;
fn type_() -> ValType;
}
i32
型などに実装するトレイトでスタックに入っているプリミティブ型であることを表します。
次にInterpretPrimitive
です。これはPrimitiveVal
から解釈可能な型に実装するトレイトで、PrimitiveVal
を実装している型に加えて、bool
、u32
、u64
に実装しています。
pub trait InterpretPrimitive {
type Primitive: PrimitiveVal;
fn to_primitive(self) -> Self::Primitive;
fn reinterpret(primitive: Self::Primitive) -> Self;
}
最後にInterpretVal
で、Val
から解釈可能な型に実装します。InterpretPrimitive
を実装している型に加えてVal
自身も実装しています。
pub trait InterpretVal: Sized {
fn try_interpret_val(val: Val) -> Option<Self>;
fn to_val(self) -> Val;
}
メモリやテーブルのインスタンスやアドレスを定義します。FooInst
とFooAddr
を定義していき、FooAddr
はRc<RefCell<FooInst>>
のnewtypeになります。外部に公開するのはFooAddr
だけで、所有権の競合でパニックにならないように気をつけてインターフェイスを作っていきます。
例えばメモリであれば以下のような構造体になります。
struct MemInst {
max: Option<usize>,
data: Vec<u8>,
}
pub struct MemAddr(Rc<RefCell<MemInst>>);
funcinst
の実装は色々工夫しているので詳細に解説します。仕様書を読むとfuncinst
はwasmの関数とホスト関数があります。そしてwasmの関数はmoduleinst
を持っています。しかしmoduleinst
はfuncaddr
を持っており循環参照になってしまいます。循環参照になるとRc
ではメモリリークしてしまうのでfuncinst
が持つmoduleinst
はWeak
で包んでいます。
pub(super) enum FuncInst {
RuntimeFunc {
type_: FuncType,
code: Func,
module: Weak<ModuleInst>,
},
HostFunc {
type_: FuncType,
host_code: Rc<dyn Fn(Vec<Val>) -> Result<Option<Val>, WasmError>>,
},
}
Weak
を使うとFuncAddr
よりModuleInst
が長く生存していることを利用する側が保証する必要がありますが、今回はこれで妥協しました。もう少しいい方法があれば改善したいです。
次にホスト関数のFuncAddr
を簡単に作るための工夫です。例えばi32
を出力する関数は何もしないと以下のように書く必要があります。
FuncAddr(Rc::new(RefCell::new(FuncInst::HostFunc {
type_: FuncType(vec![ValType::I32], vec![]),
host_code: Rc::new(|params| {
match ¶ms[..] {
[Val::I32(x)] => {
println("{}", x);
Ok(None)
},
_ => panic!()
}
})
})))
これが以下のように書けたら便利ですね。
FuncAddr::alloc_host(|(x,): (i32,)| {
println("{}", x);
Ok(())
})
これにfrunk
を使います。
まずValTypeable
というトレイトを定義します。これはある型をVec<ValType>
に変換する機能を持ったトレイトです。write_valtype
を実装するようになっているのは計算量を抑えるためでState
モナドみたいな物です。
pub trait ValTypeable {
fn write_valtype(types: &mut Vec<ValType>);
fn to_valtype() -> Vec<ValType> {
let mut types = Vec::new();
Self::write_valtype(&mut types);
types
}
}
これを各型に実装していきます。まずInterpretPrimitive
を実装している型であればその型の解釈元のプリミティブ型になります。例えばi32::to_valtype() == vec![ValType::I32]
です。
impl<T: InterpretPrimitive> ValTypeable for T {
fn write_valtype(types: &mut Vec<ValType>) {
types.push(T::Primitive::type_());
}
}
次にHNil
、つまり()
のようなものに実装します。これはvec![]
を返します。
impl ValTypeable for HNil {
fn write_valtype(_: &mut Vec<ValType>) {}
}
最後にHCons<H, T>
に実装します。これは順番に呼び出すだけです。
impl<H: ValTypeable, T: HList + ValTypeable> ValTypeable for HCons<H, T> {
fn write_valtype(types: &mut Vec<ValType>) {
H::write_valtype(types);
T::write_valtype(types);
}
}
これによって各要素がInterpretPrimitive
を実装しているHList
全てで使えるようになりました。タプルはGeneric
を実装しているので、例えば(i32, i64, bool)::Repr::to_valtype() == vec![ValType::I32, ValType::I64, ValType::I32]
です。(T::Repr
はHList
やCoproduct
に変換した時の結果型)
同じような感じである型の値をOption<Val>
に変換するToOptionVal
と、Vec<Val>
からある型の値に変換するFromVecVal
を定義します。
ToOptionVal
は返り値をOption<Val>
に変換するのに、FromVecVal
は引数のVec<Val>
から変換するのに使います。
pub trait ToOptionVal {
fn to_option_val(self) -> Option<Val>;
}
pub trait FromVecVal: Sized {
fn from_vec_val_pop_tail(vals: &mut Vec<Val>) -> Self;
fn from_vec_val(mut vals: Vec<Val>) -> Self {
let res = Self::from_vec_val_pop_tail(&mut vals);
assert_eq!(vals.len(), 0);
res
}
}
現在のwasmは複数の返り値をサポートしていないので、ToOptionVal
はHCons<T, H>
ではなくHCons<T, HNil>
に実装しています。(これによって()
や(x,)
を返すことはできるが、(x, y)
を返すとコンパイルエラーになる)。from_vec_val
は解釈に失敗したらパニックになります。これは検証済みのwasmモジュールでは解釈に失敗することはないからという理由です。
これらを使ってalloc_host
を実装すると以下のようになります。
pub fn alloc_host<P: Generic, R: Generic>(
f: impl Fn(P) -> Result<R, WasmError> + 'static,
) -> FuncAddr
where
P::Repr: ValTypeable + FromVecVal,
R::Repr: ValTypeable + ToOptionVal,
{
let type_ = FuncType(P::Repr::to_valtype(), R::Repr::to_valtype());
FuncAddr(Rc::new(RefCell::new(FuncInst::HostFunc {
type_,
host_code: Rc::new(move |params| {
let p = P::Repr::from_vec_val(params);
let r = into_generic(f(from_generic(p))?);
Ok(r.to_option_val())
}),
})))
}
Generic
を実装した引数の型P
と返り値の型R
を受け取って(これらは普通タプル型になる)、Generic::Repr
のValTypeable
制約によって関数の型を生成し、FromVecVal
やToOptionVal
制約によって引数と返り値を解釈したり変換したりしています。
他の各インスタンスやアドレスの定義は詳しく解説しないので知りたい方はソースを読んでください。
そしてこれらのインスタンスを組み合わせたModuleInst
は以下のようになっています。
pub struct ModuleInst {
pub types: Vec<FuncType>,
pub funcs: Vec<FuncAddr>,
pub table: Option<TableAddr>,
pub mem: Option<MemAddr>,
pub globals: Vec<GlobalAddr>,
pub exports: Vec<ExportInst>,
}
仕様書を読むとスタックにはVal
の他に関数の呼び出しラベルとフレームが含まれることが分かります。ラベルは制御構文に入ると積まれる値です。
まずLabel
とFrame
を定義します。
pub struct Label {
pub instrs: Vec<Instr>,
pub n: usize,
}
pub struct Frame {
pub module: Weak<ModuleInst>,
pub locals: Vec<Val>,
pub n: usize,
}
n
は結果の値の数です。現在のwasmでは0か1になります。Label
のinstrs
は継続です。ラベルの継続については前書いたWebAssemblyのbr命令についてという記事を読んでください。簡単に言うとbr
した時にラベルの本体を抜けて実行される命令です。
Val
とFrame
とLabel
は任意の順序で積まれる可能性があると書いてありますが、実際はある程度順序が決まっているので最低限計算量を抑えることとなるべく単純な実装にするために今回は以下のようなネストしたスタックを使いました。
pub struct LabelStack {
pub label: Label,
// 後ろから実行
pub instrs: Vec<AdminInstr>,
pub stack: Vec<Val>,
}
pub struct FrameStack {
pub frame: Frame,
// not empty
// stack[0]の継続は空
pub stack: Vec<LabelStack>,
}
pub struct Stack {
// not empty
pub stack: Vec<FrameStack>,
}
ルートのスタックであるStack
はFrame
を持つFrameStack
のスタックを持っています。そしてFrameStack
はLabel
を持つLabelStack
のスタックを持っています。Label
スタックはVal
のスタックと未処理の命令列であるAdminInstr
のスタックを持っています。
AdminInstr
というのは仕様書のAdministrative Instructions
に手を加えた物です。Instr
にいくつかの命令を追加しています。
pub enum AdminInstr {
Instr(Instr),
Invoke(FuncAddr),
Label(Label, Vec<Instr>),
Br(LabelIdx),
Return,
}
スタックから簡単に値をpopしたりpushしたりするためのトレイトと便利関数を見てみましょう。
まずStackValues
トレイトです。
pub trait StackValues: Sized {
fn pop_stack(stack: &mut Vec<Val>) -> Option<Self>;
fn push_stack(self, stack: &mut Vec<Val>);
}
これはスタックにpushとpopできる値を表します。これを各要素がInterpretVal
を実装しているHList
に実装することで一般的に使えるようにしています。
impl<T: InterpretVal> StackValues for T {
fn pop_stack(stack: &mut Vec<Val>) -> Option<Self> {
let val = stack.pop()?;
T::try_interpret_val(val)
}
fn push_stack(self, stack: &mut Vec<Val>) {
stack.push(self.to_val());
}
}
impl StackValues for HNil {
fn pop_stack(_: &mut Vec<Val>) -> Option<Self> {
Some(HNil)
}
fn push_stack(self, _: &mut Vec<Val>) {}
}
impl<H: StackValues, T: HList + StackValues> StackValues for HCons<H, T> {
fn pop_stack(stack: &mut Vec<Val>) -> Option<Self> {
let tail = T::pop_stack(stack)?;
let head = H::pop_stack(stack)?;
Some(tail.prepend(head))
}
fn push_stack(self, stack: &mut Vec<Val>) {
self.head.push_stack(stack);
self.tail.push_stack(stack);
}
}
HCons<H, T>
のpop_stack
はtail
→head
の順でpopしていることに注意してください。これは(a, b)
をスタックにpushするとa
→b
の順でスタックに積まれ、スタックの上にb
が来るのでpopはb
からになることから分かると思います。
次にLabelStack
の関連関数にStackValues
トレイトを活用した便利関数を定義していきます。
まずpop_values
とpush_values
です。これは型引数に(i32, i32)
などのGeneric
を実装していて、Generic::Repr
がStackValues
を実装している型の値を受け取ってpushしたりpopしたりする関数です。
fn pop_values<T>(&mut self) -> T
where
T: Generic,
T::Repr: StackValues,
{
from_generic(T::Repr::pop_stack(&mut self.stack).unwrap())
}
fn push_values<T>(&mut self, x: T)
where
T: Generic,
T::Repr: StackValues,
{
into_generic(x).push_stack(&mut self.stack)
}
次にFnOnce((i32,i32)) -> Result<(i64,), WasmError>
などのコールバックを受け取ってスタックから値をpopして関数を呼び出し結果をpushするrun
と、run
の結果がResult
でない(=失敗しない)版のrun_ok
関数です。
fn run<I, O>(&mut self, f: impl FnOnce(I) -> Result<O, WasmError>) -> Result<(), WasmError>
where
I: Generic,
I::Repr: StackValues,
O: Generic,
O::Repr: StackValues,
{
let input = self.pop_values::<I>();
let output = f(input)?;
self.push_values(output);
Ok(())
}
fn run_ok<I, O>(&mut self, f: impl FnOnce(I) -> O) -> ()
where
I: Generic,
I::Repr: StackValues,
O: Generic,
O::Repr: StackValues,
{
self.run(|i| Ok(f(i))).unwrap();
}
最後にこれらをラップした関数を定義していきます。数値命令はconst
、unop
、binop
、testop
、reop
、cvtop
というグループに分けることができるのでこれらに特化した関数です。以下のようになります。
fn run_const<T: InterpretVal>(&mut self, f: impl FnOnce() -> T) {
self.run_ok(|(): ()| -> (T,) { (f(),) })
}
fn run_unop<T: InterpretVal>(
&mut self,
f: impl FnOnce(T) -> Result<T, WasmError>,
) -> Result<(), WasmError> {
self.run(|(x,): (T,)| -> Result<(T,), _> { Ok((f(x)?,)) })
}
fn run_binop<T: InterpretVal>(
&mut self,
f: impl FnOnce(T, T) -> Result<T, WasmError>,
) -> Result<(), WasmError> {
self.run(|(a, b): (T, T)| -> Result<(T,), _> { Ok((f(a, b)?,)) })
}
fn run_testop<T: InterpretVal>(&mut self, f: impl FnOnce(T) -> bool) {
self.run_ok(|(x,): (T,)| -> (bool,) { (f(x),) })
}
fn run_reop<T: InterpretVal>(&mut self, f: impl FnOnce(T, T) -> bool) {
self.run_ok(|(x, y): (T, T)| -> (bool,) { (f(x, y),) })
}
fn run_cvtop<T: InterpretVal, R: InterpretVal>(
&mut self,
f: impl FnOnce(T) -> Result<R, WasmError>,
) -> Result<(), WasmError> {
self.run(|(x,): (T,)| -> Result<(R,), _> { Ok((f(x)?,)) })
}
失敗するかもしれない命令グループと必ず成功する命令グループがあるのでrun
とrun_ok
を使い分けています。
バイト列との相互変換はメモリ命令や再解釈命令でよく出てくるのでトレイトを定義します。
pub trait Byteable: Sized {
type N: ArrayLength<u8>;
fn to_bytes(self) -> GenericArray<u8, Self::N>;
fn from_bytes(bytes: &GenericArray<u8, Self::N>) -> Self;
}
N
は型レベル整数で、GenericArray
は固定長配列です。これを{i/u}{8/16/32/64}
と、f32
、f64
に実装しています。
Stack
、LabelStack
、FrameStack
はそれぞれ命令を1ステップ実行するstep
関数を持っています。
// LabelStack
fn step(&mut self, frame: &mut Frame) -> Result<Option<FrameLevelInstr>, WasmError> {
Ok(match self.instrs.pop() {
Some(instr) => match instr {
AdminInstr::Instr(instr) => {
match instr {
// 各命令の処理(800行程度)
}
None
}
AdminInstr::Invoke(x) => Some(FrameLevelInstr::Invoke(x)),
AdminInstr::Label(l, is) => Some(FrameLevelInstr::Label(l, is)),
AdminInstr::Br(l) => Some(FrameLevelInstr::Br(l)),
AdminInstr::Return => Some(FrameLevelInstr::Return),
},
None => Some(FrameLevelInstr::LabelEnd),
})
}
// FrameStack
pub fn step(&mut self) -> Result<Option<ModuleLevelInstr>, WasmError> {
let cur_lavel = self.stack.last_mut().unwrap();
Ok(if let Some(instr) = cur_lavel.step(&mut self.frame)? {
match instr {
// 各命令の処理(60行程度)
}
} else {
None
})
}
// Stack
pub fn step(&mut self) -> Result<(), WasmError> {
let cur_frame = self.stack.last_mut().unwrap();
if let Some(instr) = cur_frame.step()? {
let cur_label = cur_frame.stack.last_mut().unwrap();
match instr {
// 各命令の処理(70行程度)
}
}
Ok(())
}
ソースを見れば分かるように、Stack
のstep
を呼び出すとFrameStack
のstep
が呼び出され、FrameStack
のstep
を呼び出すとLabelStack
のstep
が呼び出されます。そしてほとんどの命令はLabelStack
で処理されます。しかしLabelStack
では処理出来ない命令があります。例えば制御構造に入る命令や、関数を呼び出す命令です。
制御構造に入るにはLabelStack
のスタックに値を積む必要がありますが、Label
を一つしか持たないLabelStack
では処理出来ません。関数呼び出しはFrameStack
のスタックに値を積む必要がありますがこれもできません。このような処理に対応するためにLabelStack
のstep
はOption<FrameLevelInstr>
を、FrameStack
のstep
はOption<ModuleLevelInstr>
を返すようになっています(ただしtrap
にも対応する必要があるのでResult
で包んでいます)。
FrameLevelInstr
はLabelStack
では処理出来ない命令、ModuleLevelInstr
はFrameStack
では処理出来ない命令で以下のようになっています。
pub enum FrameLevelInstr {
Label(Label, Vec<Instr>),
Br(LabelIdx),
LabelEnd,
Invoke(FuncAddr),
Return,
}
pub enum ModuleLevelInstr {
Invoke(FuncAddr),
Return,
}
そして、これらをstep
の返り値で受け取った時は親が処理するようになっています(もし親も処理できなければ更に親に返します)。
これが命令の実行方法です。
ここから命令の処理を実際にいくつか解説していきます。しかし全て解説するのは無理なので詳しく知りたい方はソースを読んでください。
まずは単純なi32.const
命令です。
// LabelStack::step
Instr::I32Const(x) => {
self.run_const(|| -> i32 { x });
}
これはi32.const x
のx
の値が結果になります。
次にi32.add
です。
// LabelStack::step
Instr::I32Add => {
self.run_binop(|x: i32, y: i32| -> Result<i32, _> {
Ok(x.overflowing_add(y).0)
})?;
}
+
ではなくoverflowing_add
を使っているのはオーバーフロー時の処理も決められており、その処理とoverflowing_add
が一致していたからです。
ローカル変数関連の命令を見てみましょう。例えばget_local
です。
// LabelStack::step
Instr::LocalGet(idx) => {
self.run_ok(|(): ()| -> (Val,) { (frame.locals[idx.to_idx()],) });
}
引数で受け取った現在のFrame
のローカル変数の値を取得しています。to_idx
はインデックスを表すnewtypeからusize
に変換する関数です。
グローバル変数に関する命令は以下のようになっています。
// LabelStack::step
Instr::GlobalSet(idx) => {
let instance = frame.module.upgrade().unwrap();
self.run_ok(|(x,): (Val,)| -> () {
instance.globals[idx.to_idx()].set(x).unwrap();
()
});
}
これは現在のフレームから現在のモジュールインスタンスを取得して(モジュールインスタンスはWeak
で持っているのでupgrade
している)、グローバル変数を書き換えています。
次にメモリ命令としてf32.store
を見てみましょう。
// LabelStack::step
Instr::F32Store(m) => {
let instance = frame.module.upgrade().unwrap();
self.run(|(ptr, x): (i32, f32)| -> Result<(), _> {
instance.mem.as_ref().unwrap().write::<f32>(&m, ptr, x)?;
Ok(())
})?;
}
MemAddr
にwrite
というByteable
を実装している型をメモリに書き込めるwrite
関数を定義しているのでそれを使っています。
制御命令も見てみましょう。例えばif
です。仕様は大体以下のようになっています。
(i32.const c) if [t^n] instr1 else instr2 end → label_n {} instr1 end (if c ≠ 0)
(i32.const c) if [t^n] instr1 else instr2 end → label_n {} instr2 end (if c = 0)
つまり、スタックの一番上の値が0でなければthen
節を、0ならelse
節を実行するという意味です。この時label
が作られますが継続は空になります。t^n
やlabel_n
のn
は結果の値の数で現在のwasmでは0
か1
になります。これを実装するとこうなります。
// LabelStack::step
Instr::If(rt, is1, is2) => {
let (x,) = self.pop_values::<(bool,)>();
self.instrs.push(AdminInstr::Label(
Label {
instrs: vec![],
n: rt.0.iter().count(),
},
if x { is1 } else { is2 },
));
}
bool
はStackValues
を実装していて0
でないかでi32
を変換してくれるのでここでは0
でないかを判定する必要はありません。rt
はOption<ValType>
のnewtype(ResultType
)です。これが評価されると命令スタックのIf
がLabel
命令に変わります(self.instrs.push
しているので命令が積まれる)。
ではこのLabel
命令の評価を見てみましょう。まずLabelStack::step
の評価です。
// LabelStack::step
AdminInstr::Label(l, is) => Some(FrameLevelInstr::Label(l, is)),
ここでは何もせずにただ返り値として返しています。これはLabel
を一つしか持たないLabelStack
ではこれ以上できることがないからです。そこでこれを受け取った親のFrameStack
がどう処理するかを見てみましょう。
// FrameStack::step
FrameLevelInstr::Label(label, instrs) => {
self.stack.push(LabelStack {
label,
instrs: instrs.into_iter().map(AdminInstr::Instr).rev().collect(),
stack: vec![],
});
None
}
受け取ったラベルと次に実行するべき命令をLabelStack
のスタックにpushしています。LabelStack
のinstrs
はAdminInstr
のスタックですが、FrameLevelInstr::Label
のinstrs
はInstr
の命令列なのでAdminInstr::Instr
で包んで反転するという処理が入っています。Label
命令はFrameStack
で完結するので親であるStack
にはNone
を返しています。
Stack
のReturn
命令の処理も見てみましょう。仕様は以下のようになっています。
frame_n{F} B^k[val^n return] end → val^n
n
は返り値の数で、B^k[val^n return]
で最後のlabel
を表しています。その最後のlabel
の最後のスタックの値val^n
を取り出せばいいわけです。ただネストしたスタックを採用しているので実装はかなり変わります。
// Stack::next
ModuleLevelInstr::Return => {
let ret = cur_label.stack.pop();
if self.stack.pop().unwrap().frame.n != 0 {
self.stack
.last_mut()
.unwrap()
.stack
.last_mut()
.unwrap()
.stack
.push(ret.unwrap());
}
}
現在のラベルのスタックの一番上の値をpopしてret
に一時的に格納しておきます(返り値が複数になることはないので0
個または1
個であるOption<Val>
になっています)。
そして現在のFrameStack
のスタックの一番上の値をpopしてそのframe
の結果の数n
を調べてそれが0
でなければ、返り先のframe
の最後のlabel
のスタックにさっき格納しておいたret
をpushしています。
wasm関数を外部から呼び出す時の処理は以下のようになります。これはFuncAddr
の関連関数です。
仕様書のInvocation
に仕様があります。
pub fn call(&self, params: Vec<Val>) -> Result<Option<Val>, WasmError> {
let mut stack = Stack {
stack: vec![FrameStack {
frame: Frame {
locals: Vec::new(),
module: Weak::new(),
n: 0,
},
stack: vec![LabelStack {
label: Label {
instrs: vec![],
n: 0,
},
instrs: vec![AdminInstr::Invoke(self.clone())],
stack: params,
}],
}],
};
loop {
stack.step()?;
if stack.stack.len() == 1
&& stack.stack.first().unwrap().stack.len() == 1
&& stack
.stack
.first()
.unwrap()
.stack
.first()
.unwrap()
.instrs
.is_empty()
{
break;
}
}
Ok(stack.stack.pop().unwrap().stack.pop().unwrap().stack.pop())
}
これは引数でパラメーターparams
を受け取って、ダミーラベルを持つダミーフレームを作っています。ダミーラベルには実行対象のFuncAddr
が設定されたInvoke
命令と、params
をスタックに載せています。
そして、ダミーフレームが値に評価されるまでstep
を呼び続けて値に評価されたら結果を返しています。
実際に処理を実行するにはModule
とimportする値を受け取って、ModuleInst
を作らなければいけません。その処理の解説です。
まずimportする値は以下のようになっています。
pub type ExternalModule = HashMap<String, ExternalVal>;
pub type ImportObjects = HashMap<String, ExternalModule>;
#[derive(Debug, Clone)]
pub enum ExternalVal {
Func(FuncAddr),
Table(TableAddr),
Mem(MemAddr),
Global(GlobalAddr),
}
ExternalVal
はimportやexportできる値で、それのMapがExternalModule
、さらにそれのMapがImportObjects
です。
ModuleInst::newが実際の処理です。
この関数のシグネチャは以下のようになっています。結果がResult
であることから分かるようにインスタンス化は失敗することがあります。例えばimportする値が存在しなかったり、start
関数でtrap
した場合などです。
pub fn new(module: &Module, imports_objects: ImportObjects) -> Result<Rc<ModuleInst>, WasmError>;
まずtypes
以外は空のモジュールを作ります。
let mut result = ModuleInst {
types: module.types.clone(),
funcs: Vec::new(),
table: None,
mem: None,
globals: Vec::new(),
exports: Vec::new(),
};
次にモジュールのimport宣言と、importされた値を使って実際にimportしていきます。この時その名前を持つ値が存在するか、値の種類が正しいかだけでなく値の型チェックをする必要があります。
for import in &module.imports {
let val = imports_objects
.get(&import.module.0)
.and_then(|module| module.get(&import.name.0))
.cloned()
.ok_or_else(|| WasmError::LinkError)?;
match &import.desc {
ImportDesc::Func(idx) => {
result.funcs.push(
val.as_func()
.filter(|func| func.type_().is_match(result.types.get_idx(*idx)))
.ok_or_else(|| WasmError::LinkError)?,
);
}
// 省略
}
}
各インスタンスはtype_
関数を持っており、各Typeはis_match
関数を持っているのでこれでチェックすることが出来ます。
a.is_match(b)
はa
がb
のサブタイプかを判定しています。インスタンスの型を調べる仕様は仕様書のExternal Typing
を、型のサブタイプはImport Matching
に書いてあります。
次にモジュールの各値をインスタンス化していきます。ただ、funcs
のインスタンス化だけ特殊で、一旦ダミーの値を置いています。
for _ in &module.funcs {
result.funcs.push(FuncAddr::alloc_dummy());
}
if let Some(table) = module.tables.iter().next() {
let _ = result.table.replace(TableAddr::alloc(&table.type_));
}
// 省略
これはModuleInst
とFuncInst
は循環参照しており、この段階では渡すことが出来ないからです。ダミーの値を置いているのはこれをしないと以下のexportする値を作れないといった理由があります。
for export in &module.exports {
result.exports.push(ExportInst {
name: export.name.0.clone(),
value: match export.desc {
ExportDesc::Func(idx) => ExternalVal::Func(result.funcs.get_idx(idx).clone()),
ExportDesc::Global(idx) => {
ExternalVal::Global(result.globals.get_idx(idx).clone())
}
ExportDesc::Mem(_idx) => ExternalVal::Mem(result.mem.as_ref().unwrap().clone()),
ExportDesc::Table(_idx) => {
ExternalVal::Table(result.table.as_ref().unwrap().clone())
}
},
});
}
ダミーの値はインスタンス化の最後のほうで実際の値に置き換えられます。
まず、ModuleInst
をRc
で包んで、関数をインスタンス化しています。
そしてstart
関数が存在すればそれが実行され結果が返されます。
let result = Rc::new(result);
for (i, func) in module.funcs.iter().enumerate() {
let idx = i + module
.imports
.iter()
.map(|x| {
if let ImportDesc::Func(_) = x.desc {
1
} else {
0
}
})
.sum::<usize>();
result.funcs[idx].replace_dummy(func.clone(), Rc::downgrade(&result));
}
if let Some(start) = &module.start {
result.funcs.get_idx(start.func).call(vec![])?;
}
Ok(result)
その他のインスタンス化処理や、data
やelem
によるmem
やtable
の初期化は特に特殊な事をしていないので解説は省略します。
公式がwast形式のテストケースを用意してくれています。
https://github.com/WebAssembly/spec/tree/master/test/core
wastというのはwatの拡張形式で「この関数をこの順番で呼び出せばこの結果が返ってくる」といったassertや、複数モジュールを定義してそのモジュール間の連携とテストを書いたりすることができます。
wastはwabtのwast2json
というコマンドで複数のwasmと、テストケースのjsonに変換して使うことが出来ます。
masterのwabtはwast2json
の出力するwasmファイルが壊れるバグがあるのでタグがついている一番最新のバージョンを使いましょう。
そしてwastのテストケースも#1104で、assert_return_canonical_nan
とassert_return_arithmetic_nan
が消されてnan:canonical
とnan:canonical
というリテラルのようなものが入ったのですが、まだwabt
が対応しておらず、wasm2json
を実行するとエラーになるのでこのPRがマージされる前のものを使う必要があります(wabt以外の変換ツールを使えばいけるはずですが試してません)
テストの実装はここです。
https://github.com/kgtkr/wasm-rs/blob/adc-2019-12-22/tests/spec.rs
assert_malformed
(モジュールのパースに失敗)はテキストフォーマットの実装ができていないので、assert_invalid
(検証に失敗)は検証フェーズの実装ができてないので、assert_exhaustion
(リソースを使い果たした)はスタックオーバーフローなどの実装ができていないので、assert_return_canonical_nan
(結果がcanonical_nanである)とassert_return_arithmetic_nan
(結果がarithmetic_nanである)はさっきのPRで消されてしまうのでテストをスキップしていますがそれ以外は全て通りました。
出力したjsonをいい感じにパースして書いてあるとおりに実行すればテストできるのでかなり楽です。気をつける事があるとすればjsonのvalue
はi32/i64/f32/f64
に関係なく全て符号なし整数の文字列なのでそれをパースして、リトルエンディアンでバイト列に変換して、バイト列から対象の型に変換する必要があるくらいです。
md5を計算するRustコードをwasmにコンパイルして自作インタプリタ上で動かしてみました。
wasmにコンパイルするRustコードは以下です。
use std::ffi::{c_void, CString};
use std::mem::forget;
#[no_mangle]
pub extern "C" fn md5(input: *mut i8) -> *const i8 {
let s = CString::new(format!(
"{:x}",
md5::compute(unsafe { CString::from_raw(input) }.into_bytes())
))
.unwrap();
let p = s.as_ptr();
forget(s);
p
}
#[no_mangle]
pub fn alloc(size: usize) -> *mut c_void {
let mut buf = Vec::with_capacity(size);
let p = buf.as_mut_ptr();
forget(buf);
p
}
fn main() {}
Rustからwasmに公開する関数は整数やポインタ型でしかやり取りできないので、これを使う側はalloc
で文字列をCString
に変換したバイト列の長さ分メモリを確保→確保したメモリをバイト列で埋める→md5
に確保したメモリのポインタを渡す→結果がポインタで返ってくるのでポインタをCString
に変換するという処理を行う必要があります。
これをする処理が以下です。md5-bin.wasm
が上記のコンパイル結果です。
use maplit::hashmap;
use std::ffi::CString;
use wasm_rs::binary::decode_module;
use wasm_rs::exec::{ModuleInst, Val};
fn main() {
let module = decode_module(
&std::fs::read("md5-bin/target/wasm32-unknown-unknown/release/md5-bin.wasm").unwrap(),
)
.unwrap();
let instance = ModuleInst::new(&module, hashmap! {}).unwrap();
let input_bytes = CString::new("abc").unwrap().into_bytes();
let input_ptr = instance
.export("alloc")
.unwrap_func()
.call(vec![Val::I32(input_bytes.len() as i32)])
.unwrap()
.unwrap()
.unwrap_i32();
instance
.export("memory")
.unwrap_mem()
.write_buffer(input_ptr, &input_bytes[..]);
let output_ptr = instance
.export("md5")
.unwrap_func()
.call(vec![Val::I32(input_ptr as i32)])
.unwrap()
.unwrap()
.unwrap_i32() as usize;
let mem = instance.export("memory").unwrap_mem();
println!(
"{}",
CString::new(
mem.into_iter()
.skip(output_ptr)
.take_while(|x| *x != 0)
.collect::<Vec<_>>(),
)
.unwrap()
.into_string()
.unwrap()
);
}
これを実行すると以下のように表示され、"abc"
のmd5を計算できていることが分かります。
900150983cd24fb0d6963f7d28e17f72
一年前にHaskellでwasmにコンパイルする自作言語を作ったので(WebAssemblyにコンパイルする言語を実装する
)、それを実行してみたところ上手く動かすことができました。
以下は配列を10個用意して、インデックスの値で初期化、各要素をインクリメント、二倍、デクリメントして出力する自作言語のコードです。
extern fun "memory" "malloc" malloc(x: i32): i32
extern fun "io" "print" print(x: i32)
fun main() = {
let n = 10;
let arr = [i32; n];
for(let i = 0; i < n; i = i + 1) {
arr[i] = i;
};
map(inc, n, arr);
map(double, n, arr);
map(dec, n, arr);
forEach(print, n, arr);
}
fun double(x: i32): i32 = x * 2
fun inc(x: i32): i32 = x + 1
fun dec(x: i32): i32 = x - 1
fun map(f: (i32) => i32, n:i32, arr: [i32]) = {
for(let i = 0; i< n; i = i + 1) {
arr[i] = f(arr[i]);
};
}
fun forEach(f: (i32) =>, n: i32, arr: [i32]) = {
for(let i = 0; i < n; i = i + 1) {
f(arr[i]);
};
}
cl8w-ex.wasm
は自作言語のコンパイル結果、memory.wasm
は自作言語の実行に必要なランタイムとなっています。
モジュールのインスタンス化には各モジュールがimportしている値を用意し渡す必要があります。
use wasm_rs::binary::decode_module;
use wasm_rs::exec::{ModuleInst, ExternalVal, FuncAddr, MemAddr};
use maplit::hashmap;
fn main(){
let memory = ExternalVal::Mem(MemAddr::new(10, None));
let print = ExternalVal::Func(FuncAddr::alloc_host(|(x,): (i32,)| {
println!("{}", x);
Ok(())
}));
let memory_module =
decode_module(&std::fs::read("cl8w-wasm/memory.wasm").unwrap()).unwrap();
let memory_instance = ModuleInst::new(
&memory_module,
hashmap! {
"resource".to_string() => hashmap!{
"memory".to_string() => memory.clone()
}
},
)
.unwrap();
let main_module =
decode_module(&std::fs::read("cl8w-wasm/cl8w-ex.wasm").unwrap()).unwrap();
let main_instance = ModuleInst::new(
&main_module,
hashmap! {
"resource".to_string() => hashmap!{
"memory".to_string() => memory.clone()
},
"memory".to_string() => memory_instance.exports(),
"io".to_string() => hashmap!{
"print".to_string() => print.clone()
}
},
)
.unwrap();
main_instance
.export("main")
.unwrap_func()
.call(vec![])
.unwrap();
}
これを実行するとこのように表示されます。
1
3
5
7
9
11
13
15
17
19
Rustはwasmにコンパイルすることができるので自作インタプリタ上で自作言語を動かすコードをwasmにコンパイルし、それを自作インタプリタで動かしてみました。つまり自作言語(wasm) on 自作インタプリタ(wasm) on 自作インタプリタ(ホストマシン)です。
自作言語のコードはさっきと同じです。
wasmにコンパイルするRustコードは以下です。さっきとほぼ同じですが、print
をextern
していたり、run
関数をextern
しているところが違います。
use maplit::hashmap;
use wasm_rs::binary::decode_module;
use wasm_rs::exec::{ExternalVal, FuncAddr, MemAddr, ModuleInst};
fn main() {}
extern "C" {
fn print(x: i32) -> ();
}
#[no_mangle]
pub extern "C" fn run() {
let memory = ExternalVal::Mem(MemAddr::new(10, None));
let print = ExternalVal::Func(FuncAddr::alloc_host(|(x,): (i32,)| {
unsafe {
print(x);
}
Ok(())
}));
let memory_module = decode_module(include_bytes!("../../cl8w-wasm/memory.wasm")).unwrap();
let memory_instance = ModuleInst::new(
&memory_module,
hashmap!(
"resource".to_string() => hashmap!(
"memory".to_string() => memory.clone()
)
),
)
.unwrap();
let main_module = decode_module(include_bytes!("../../cl8w-wasm/cl8w-ex.wasm")).unwrap();
let main_instance = ModuleInst::new(
&main_module,
hashmap!(
"resource".to_string() => hashmap!(
"memory".to_string() => memory.clone()
),
"memory".to_string() => memory_instance.exports(),
"io".to_string() => hashmap!(
"print".to_string() => print.clone()
)
),
)
.unwrap();
main_instance
.export("main")
.unwrap_func()
.call(vec![])
.unwrap();
}
上記Rustコードをwasmにコンパイルして動かすコードは以下のようになります。cl8w-on-wasm-bin.wasm
は上記Rustコードのコンパイル結果です。
use maplit::hashmap;
use wasm_rs::binary::decode_module;
use wasm_rs::exec::{ExternalVal, FuncAddr, ModuleInst};
fn main() {
let print = ExternalVal::Func(FuncAddr::alloc_host(|(x,): (i32,)| {
println!("{}", x);
Ok(())
}));
let module = decode_module(
&std::fs::read(
"cl8w-on-wasm-bin/target/wasm32-unknown-unknown/release/cl8w-on-wasm-bin.wasm",
)
.unwrap(),
)
.unwrap();
let instance = ModuleInst::new(
&module,
hashmap! {
"env".to_string() => hashmap!{
"print".to_string() => print
}
},
)
.unwrap();
instance.export("run").unwrap_func().call(vec![]).unwrap();
}
これを実行すると以下のようになります。
手元環境(MBP2018 2.5GHz i7)でtimeコマンドを使って実行時間の計測もしてみました。どちらのRustコードもreleaseビルドです。
1
3
5
7
9
11
13
15
17
19
real 1m48.488s
user 1m41.136s
sys 0m1.177s
遅すぎますね。遅いwasmインタプリタの上で遅いwasmインタプリタを動かしてその上で遅い自作言語(どちらかというと自作メモリアロケーターが遅い)を動かしているのでめちゃくちゃ遅いのは当然です。パフォーマンス無視で実装したとはいえ流石に遅すぎるので改善したいです。
ちなみにcl8w-on-wasm-bin.wasm
をnode.js上で実行すると実行時間は以下のようになりました。かなり差ありますね。
real 0m0.376s
user 0m0.869s
sys 0m0.080s
まずは検証フェーズと、watのパーサーを作って全ての公式テストケースを通るようにしたいです。
ModuleInst
にWeak
を使いまくってるのも綺麗じゃないのでそれも改善したいと思っています。