Relaceは、a16zが主導する2300万ドルのシリーズAを資金調達しました。1年前に初めて公開されたFast Applyモデルの進展を振り返り、コード特化型の小型モデルをチューニングする方法を深く学びました。最良のモデルであるRelace Apply 3は、10,000トークン以上で処理可能で、高い精度を維持しています。プログラムの編集時に全体を再生成するコストを削減するため、フロンティアモデルが変更内容を示すdiffを出力し、軽量のアルゴリズムでそれを既存コードに適用する方法が提案されています。このアプローチにより、効率を大幅に向上させることができます。また、LLMをマージアルゴリズムとして用いる利点は、さまざまなedge casesに対応可能な柔軟性にあります。優れた結果を得るために、少数の高品質なデータセットを使用してオフ・ザ・シェルフの小さなモデルをファインチューニングしています。