web-dev-qa-db-ja.com

JavaScriptの線形回帰

WebブラウザーでJavaScriptで最小二乗フィッティングを実行したい。

現在、ユーザーはHTMLテキスト入力を使用してデータポイント情報を入力し、そのデータをjQueryで取得して、グラフを Flot でグラフ化しています。

ユーザーがデータポイントを入力した後、「最適なライン」を提示したいと思います。線形、多項式、指数、対数の方程式を計算し、_R^2_の値が最も高いものを選択すると思います。

私はこれを行うのに役立つライブラリを見つけることができないようです。私は偶然 jStat に遭遇しましたが、(私が見つけることができる限り)完全にドキュメントが欠落しており、ソースコードを調べた後、線形回帰機能が組み込まれていないようです--Iただし、これは純粋に関数名に基づいています。

簡単な回帰分析を提供するJavaScriptライブラリを知っている人はいますか?


ライブラリがこんな風に使えるといいのに...

配列_var points = [[3,4],[15,45],...[23,78]]_に散布点のセットがある場合、lin_reg(points)などの関数にそれを渡すことができ、線形方程式であれば_[7.12,3]_のようなものを返します。 _y = 7.12 x + 3_でした。

30
Chris W.

どのような線形回帰ですか?最小二乗法のような単純なものについては、自分でプログラムするだけです。

http://mathworld.wolfram.com/LeastSquaresFitting.html

数学はそれほど難しいものではありません。1時間ほど試してみて、難しい場合は試してみてください。

編集:

それをした人を見つけました:

http://dracoblue.net/dev/linear-least-squares-in-javascript/159/

21
Milimetric

私が手元にある質問に対して見つけた最も簡単な解決策は、次の投稿にあります: http://trentrichardson.com/2010/04/06/compute-linear-regressions-in-javascript/

線形方程式に加えて、R2スコアも返すことに注意してください。これは便利な場合があります。

**編集**

実際のコードスニペットは次のとおりです。

function linearRegression(y,x){
        var lr = {};
        var n = y.length;
        var sum_x = 0;
        var sum_y = 0;
        var sum_xy = 0;
        var sum_xx = 0;
        var sum_yy = 0;

        for (var i = 0; i < y.length; i++) {

            sum_x += x[i];
            sum_y += y[i];
            sum_xy += (x[i]*y[i]);
            sum_xx += (x[i]*x[i]);
            sum_yy += (y[i]*y[i]);
        } 

        lr['slope'] = (n * sum_xy - sum_x * sum_y) / (n*sum_xx - sum_x * sum_x);
        lr['intercept'] = (sum_y - lr.slope * sum_x)/n;
        lr['r2'] = Math.pow((n*sum_xy - sum_x*sum_y)/Math.sqrt((n*sum_xx-sum_x*sum_x)*(n*sum_yy-sum_y*sum_y)),2);

        return lr;
}

これを使用するには、known_yとknown_xの2つの配列を渡すだけでよいので、次のように渡します。

var known_y = [1, 2, 3, 4];
var known_x = [5.2, 5.7, 5.0, 4.2];

var lr = linearRregression(known_y, known_x);
// now you have:
// lr.slope
// lr.intercept
// lr.r2
10
o_c

私は この素晴らしいJavaScriptライブラリ を見つけました。

それは非常にシンプルで、完璧に動作するようです。

私もMath.JSを十分にお勧めすることはできません。

8
JZL003

チェックアウト https://web.archive.org/web/20150523035452/https://cgwb.nci.nih.gov/cgwbreg.html (JavaScript回帰計算機)-CGI呼び出しではなく純粋なJavaScriptサーバーへ。データと処理はコンピュータに残ります。 Rスタイルの結果とRコードを完成させて、作業と結果の視覚化をチェックします。

OLSの埋め込みJavaScript実装と結果に関連する統計については、ソースコードを参照してください。

このコードは、GSLライブラリ関数をJavaScriptに移植するための私の努力です。

コードは基本的にGPLライセンスのGnu Scientific Library(GSL)コードのライン移植用のラインであるため、GPLの下でリリースされます。

編集:Paul Lutusは、次の場所で回帰用のGPLコードも提供しています: http://arachnoid.com/polysolve/index.html

7
Richard Finney

以下は、トリプレット(x、y、r)の配列を取得するスニペットです。rは(x、y)データポイントの重みであり、Y = a * X + bがデータ。

// return (a, b) that minimize
// sum_i r_i * (a*x_i+b - y_i)^2
function linear_regression( xyr )
{
    var i, 
        x, y, r,
        sumx=0, sumy=0, sumx2=0, sumy2=0, sumxy=0, sumr=0,
        a, b;

    for(i=0;i<xyr.length;i++)
    {   
        // this is our data pair
        x = xyr[i][0]; y = xyr[i][1]; 

        // this is the weight for that pair
        // set to 1 (and simplify code accordingly, ie, sumr becomes xy.length) if weighting is not needed
        r = xyr[i][2];  

        // consider checking for NaN in the x, y and r variables here 
        // (add a continue statement in that case)

        sumr += r;
        sumx += r*x;
        sumx2 += r*(x*x);
        sumy += r*y;
        sumy2 += r*(y*y);
        sumxy += r*(x*y);
    }

    // note: the denominator is the variance of the random variable X
    // the only case when it is 0 is the degenerate case X==constant
    b = (sumy*sumx2 - sumx*sumxy)/(sumr*sumx2-sumx*sumx);
    a = (sumr*sumxy - sumx*sumy)/(sumr*sumx2-sumx*sumx);

    return [a, b];
}
4
Nic Mabon

変動の測度(平方和の合計=平方和の回帰+平方誤差の合計)、推定の標準誤差SEE(残差標準誤差)、および決定係数R2と相関Rを使用した単純な線形回帰。

const regress = (x, y) => {
    const n = y.length;
    let sx = 0;
    let sy = 0;
    let sxy = 0;
    let sxx = 0;
    let syy = 0;
    for (let i = 0; i < n; i++) {
        sx += x[i];
        sy += y[i];
        sxy += x[i] * y[i];
        sxx += x[i] * x[i];
        syy += y[i] * y[i];
    }
    const mx = sx / n;
    const my = sy / n;
    const yy = n * syy - sy * sy;
    const xx = n * sxx - sx * sx;
    const xy = n * sxy - sx * sy;
    const slope = xy / xx;
    const intercept = my - slope * mx;
    const r = xy / Math.sqrt(xx * yy);
    const r2 = Math.pow(r,2);
    let sst = 0;
    for (let i = 0; i < n; i++) {
       sst += Math.pow((y[i] - my), 2);
    }
    const sse = sst - r2 * sst;
    const see = Math.sqrt(sse / (n - 2));
    const ssr = sst - sse;
    return {slope, intercept, r, r2, sse, ssr, sst, sy, sx, see};
}
regress([1, 2, 3, 4, 5], [1, 2, 3, 4, 3]);
2
didinko

ニックマボンの答えにある程度基づいています。

function linearRegression(x, y)
{
    var xs = 0;  // sum(x)
    var ys = 0;  // sum(y)
    var xxs = 0; // sum(x*x)
    var xys = 0; // sum(x*y)
    var yys = 0; // sum(y*y)

    var n = 0;
    for (; n < x.length && n < y.length; n++)
    {
        xs += x[n];
        ys += y[n];
        xxs += x[n] * x[n];
        xys += x[n] * y[n];
        yys += y[n] * y[n];
    }

    var div = n * xxs - xs * xs;
    var gain = (n * xys - xs * ys) / div;
    var offset = (ys * xxs - xs * xys) / div;
    var correlation = Math.abs((xys * n - xs * ys) / Math.sqrt((xxs * n - xs * xs) * (yys * n - ys * ys)));

    return { gain: gain, offset: offset, correlation: correlation };
}

次に、y '= x *ゲイン+オフセット。

1
Timmmm