RNNを用いてFSMを学習させるという問題は幅広く研究されてきた。しかしそれらの結果は、現存する文法推論のアルゴリズムに比べると小さな規模のものしか学習できないという点において満足しがたいものであった。それに対して、ここではFSMのクラスを限定し、問題に適した構造のNNを選ぶことで規模の大きなFSMを学習できることを示した。
ここではNNIIRが文字列から学習することで、サイズの大きな(512状態以上の)FMMを学習する能力があるということを示した。また充分な数のサンプルについて学習した後、NNIIRからは常に正確な、もしくはとても誤答率の低いFMMを抽出することができる。しかし、問題を扱いやすくするためある種の制約が必要となる。この制約とは、FSMのorderを制限すること(これは必要とされる遅延素子の数と関係する)、およびFSMのdepthを制限すること(これはトレーニングセットのサイズに影響を与える)である。そのうえ、実際に学習することができるのは比較的単純な論理関数を持ったもののみである(最近、Clouse et al.(1994)はfeedfowardのネットワークを用いてこれに近い結果を導いた)。論理関数が複雑になるにつれ、ウェイトの適切な組み合わせを探す問題も難しくなる。ゆえに、loading problem(Blum & Rivest 1988)のような、任意の論理関数を学習する問題は任意のFMMを学習するという問題の最も大きな障壁となると推測される。
ここで行った、order,depth,論理関数に関する制約は、すべてのFMMの中から、さらに小さなクラスを選んでいるということである。従って、FSMの他のクラスに対して問題に適した構造をもつRNNの種類を区別することが重要である。どのようなフィードバックを持つネットワークがどのようなFSMのクラスに対応するのか、また逆に、あるネットワークはあるクラスの任意のFSMを学習する能力があるのか、ということは興味深い問題である。