web-dev-qa-db-ja.com

パンダの列の値に基づいてDataFrameから行を選択する

パンダのいくつかの列の値に基づいてDataFrameから行を選択する方法?

_ sql _ では、次のように使用します。

SELECT *
FROM table
WHERE colume_name = some_value

私はパンダのドキュメントを見ようとしましたが、すぐに答えを見つけませんでした。

1334
szli

列値がスカラーsome_valueと等しい行を選択するには、==を使用します。

df.loc[df['column_name'] == some_value]

列値が反復可能なsome_valuesにある行を選択するには、isinを使用します。

df.loc[df['column_name'].isin(some_values)]

&と複数の条件を組み合わせる:

df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]

括弧に注意してください。 Pythonの 演算子の優先順位規則 により、&<=および>=よりも緊密にバインドされます。したがって、最後の例の括弧は必要です。括弧なし

df['column_name'] >= A & df['column_name'] <= B

として解析されます

df['column_name'] >= (A & df['column_name']) <= B

シリーズの真理値は、あいまいなエラーです


列値some_valueと等しくない行を選択するには、!=を使用します。

df.loc[df['column_name'] != some_value]

isinはブール値のSeriesを返すので、some_valuesで値が not である行を選択するには、~を使用してブール値のSeriesを否定します。

df.loc[~df['column_name'].isin(some_values)]

例えば、

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
#      A      B  C   D
# 0  foo    one  0   0
# 1  bar    one  1   2
# 2  foo    two  2   4
# 3  bar  three  3   6
# 4  foo    two  4   8
# 5  bar    two  5  10
# 6  foo    one  6  12
# 7  foo  three  7  14

print(df.loc[df['A'] == 'foo'])

収量

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

複数の値を含めたい場合は、それらをリスト(より一般的には反復可能なもの)にまとめて、isinを使用します。

print(df.loc[df['B'].isin(['one','three'])])

収量

     A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

ただし、これを何度も実行したい場合は、最初に索引を作成してからdf.locを使用する方が効率的です。

df = df.set_index(['B'])
print(df.loc['one'])

収量

       A  C   D
B              
one  foo  0   0
one  bar  1   2
one  foo  6  12

または、インデックスから複数の値を含めるには、df.index.isinを使用します。

df.loc[df.index.isin(['one','two'])]

収量

       A  C   D
B              
one  foo  0   0
one  bar  1   2
two  foo  2   4
two  foo  4   8
two  bar  5  10
one  foo  6  12
2612
unutbu

tl; dr

と同等のパンダ

select * from table where column_name = some_value

です

table[table.column_name == some_value]

複数の条件

table[(table.column_name == some_value) | (table.column_name2 == some_value2)]

または

table.query('column_name == some_value | column_name2 == some_value2')

コード例

import pandas as pd

# Create data set
d = {'foo':[100, 111, 222], 
     'bar':[333, 444, 555]}
df = pd.DataFrame(d)

# Full dataframe:
df

# Shows:
#    bar   foo 
# 0  333   100
# 1  444   111
# 2  555   222

# Output only the row(s) in df where foo is 222:
df[df.foo == 222]

# Shows:
#    bar  foo
# 2  555  222

上記のコードでは、列値に基づいて行を返すのはdf[df.foo == 222]行です。この場合は222です。

複数の条件も可能です。

df[(df.foo == 222) | (df.bar == 444)]
#    bar  foo
# 1  444  111
# 2  555  222

しかし、その時点では、 query 関数を使用することをお勧めします。これは、冗長ではなく、同じ結果が得られるためです。

df.query('foo == 222 | bar == 444')
220
imolit

pandasデータフレームから行を選択するには、いくつかの方法があります。

  1. ブールインデックス(df[df['col'] == value])
  2. 位置インデックス(df.iloc[...]
  3. ラベルの索引付け(df.xs(...)
  4. df.query(...) AP​​I

以下に、特定のテクニックを使用するタイミングについてアドバイスしながら、それぞれの例を示します。基準が列'A' == 'foo'であると仮定します

(パフォーマンスに関する注意:基本タイプごとに、pandas APIを使用して物事をシンプルに保つか、APIの外部、通常はnumpyname__に進出し、物事を高速化できます。)


セットアップ
最初に必要なことは、行を選択するための基準として機能する条件を識別することです。 OPのケースcolumn_name == some_valueから始め、他の一般的なユースケースを含めます。

@unutbuからの借用:

import pandas as pd, numpy as np

df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})

1。ブールインデックス

...ブールインデックスを作成するには、各行の'A'列の真の値を'foo'と等しくし、それらの真理値を使用して保持する行を識別する必要があります。通常、このシリーズには、真理値の配列maskname__と名前を付けます。ここでも同様に行います。

mask = df['A'] == 'foo'

次に、このマスクを使用して、データフレームをスライスまたはインデックス付けできます。

df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

これは、このタスクを達成するための最も簡単な方法の1つであり、パフォーマンスや直感性が問題にならない場合は、これを選択する必要があります。ただし、パフォーマンスが懸念される場合は、maskname__を作成する別の方法を検討することをお勧めします。


2。位置インデックス

位置インデックス(df.iloc[...])にはユースケースがありますが、これはそれらの1つではありません。スライスする場所を特定するには、最初に上記で行ったのと同じブール解析を実行する必要があります。これにより、同じタスクを達成するために1つの追加ステップが実行されます。

mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

3。ラベルのインデックス付け

Labelインデックス作成は非常に便利ですが、この場合は、利益が得られないため、再び多くの作業を行っています。

df.set_index('A', append=True, drop=False).xs('foo', level=1)

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

4。 df.query() AP​​I

pd.DataFrame.queryは、このタスクを実行するための非常にエレガントで直感的な方法ですが、多くの場合遅くなります。 ただし、、以下のタイミングに注意を払うと、大きなデータの場合、クエリは非常に効率的です。標準的なアプローチよりも、私の最善の提案と同程度の規模です。

df.query('A == "foo"')

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

私の好みはBooleanmaskname__を使用することです

Booleanmaskname__の作成方法を変更することにより、実際の改善を行うことができます。

maskname__代替1
基礎となるnumpyname__配列を使用し、別のpd.Seriesを作成するオーバーヘッドを無視します

mask = df['A'].values == 'foo'

最後に、より完全な時間テストを示しますが、サンプルデータフレームを使用して得られるパフォーマンスの向上を見てみましょう。最初に、maskname__の作成の違いを見てみましょう

%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'

5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

maskname__配列を使用したnumpyname__の評価は、約30倍高速です。これは、部分的にnumpyname__評価がより高速であることが原因の1つです。また、インデックスと対応するpd.Seriesオブジェクトを構築するために必要なオーバーヘッドがないことも一部原因です。

次に、一方のmaskname__ともう一方をスライスするタイミングを見ていきます。

mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]

219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

パフォーマンスの向上はそれほど顕著ではありません。これがより堅牢なテストに耐えられるかどうかを確認します。


maskname__代替2
データフレームも再構築できました。データフレームを再構築する場合、大きな注意点があります。再構築するときは、dtypesname__に注意する必要があります。

df[mask]の代わりにこれを行います

pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

データフレームが混合型である場合、この例では、df.valuesを取得すると、結果の配列はdtypeobjectname__になり、その結果、新しいデータフレームのすべての列はdtypeobjectname__になります。したがって、astype(df.dtypes)を要求し、潜在的なパフォーマンスの向上を殺します。

%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

ただし、データフレームが混合型ではない場合、これは非常に便利な方法です。

与えられた

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

d1

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5    

%%timeit
mask = d1['A'].values == 7
d1[mask]

179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

Versus

%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)

87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

時間を半分に短縮しました。


maskname__代替3
@ unutbuは、pd.Series.isinを使用して、値のセットに含まれるdf['A']の各要素を説明する方法も示しています。値のセットが1つの値のセット、つまり'foo'である場合、これは同じものに評価されます。ただし、必要に応じてより大きな値のセットを含めることも一般化します。結局のところ、これはより一般的なソリューションであるにもかかわらず、これはまだかなり高速です。唯一の本当の損失は、概念に精通していない人にとって直観性にあります。

mask = df['A'].isin(['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

ただし、以前と同様、numpyname__を使用してパフォーマンスを向上させ、実質的に何も犠牲にすることはできません。 np.in1dを使用します

mask = np.in1d(df['A'].values, ['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

タイミング
参照用に、他の投稿で言及されている他の概念も含めます。
以下のコード

この表の各列は、各関数をテストする異なる長さのデータフレームを表します。各列は、1.0のベースインデックスを指定した最速の関数で、相対的な時間を示しています。

res.div(res.min())

                         10        30        100       300       1000      3000      10000     30000
mask_standard         2.156872  1.850663  2.034149  2.166312  2.164541  3.090372  2.981326  3.131151
mask_standard_loc     1.879035  1.782366  1.988823  2.338112  2.361391  3.036131  2.998112  2.990103
mask_with_values      1.010166  1.000000  1.005113  1.026363  1.028698  1.293741  1.007824  1.016919
mask_with_values_loc  1.196843  1.300228  1.000000  1.000000  1.038989  1.219233  1.037020  1.000000
query                 4.997304  4.765554  5.934096  4.500559  2.997924  2.397013  1.680447  1.398190
xs_label              4.124597  4.272363  5.596152  4.295331  4.676591  5.710680  6.032809  8.950255
mask_with_isin        1.674055  1.679935  1.847972  1.724183  1.345111  1.405231  1.253554  1.264760
mask_with_in1d        1.000000  1.083807  1.220493  1.101929  1.000000  1.000000  1.000000  1.144175

mask_with_valuesmask_with_in1dの間で最速時間が共有されているように見えることに気付くでしょう。

res.T.plot(loglog=True)

enter image description here

関数

def mask_standard(df):
    mask = df['A'] == 'foo'
    return df[mask]

def mask_standard_loc(df):
    mask = df['A'] == 'foo'
    return df.loc[mask]

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_values_loc(df):
    mask = df['A'].values == 'foo'
    return df.loc[mask]

def query(df):
    return df.query('A == "foo"')

def xs_label(df):
    return df.set_index('A', append=True, drop=False).xs('foo', level=-1)

def mask_with_isin(df):
    mask = df['A'].isin(['foo'])
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

テスト

res = pd.DataFrame(
    index=[
        'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
        'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
    ],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

for j in res.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in res.index:a
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        res.at[i, j] = timeit(stmt, setp, number=50)

特別なタイミング
データフレーム全体に対して単一の非オブジェクトdtypename__がある場合の特殊なケースを見てください。 以下のコード

spec.div(spec.min())

                     10        30        100       300       1000      3000      10000     30000
mask_with_values  1.009030  1.000000  1.194276  1.000000  1.236892  1.095343  1.000000  1.000000
mask_with_in1d    1.104638  1.094524  1.156930  1.072094  1.000000  1.000000  1.040043  1.027100
reconstruct       1.000000  1.142838  1.000000  1.355440  1.650270  2.222181  2.294913  3.406735

結局、再構築は数百行を超える価値はありません。

spec.T.plot(loglog=True)

enter image description here

関数

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

def reconstruct(df):
    v = df.values
    mask = np.in1d(df['A'].values, ['foo'])
    return pd.DataFrame(v[mask], df.index[mask], df.columns)

spec = pd.DataFrame(
    index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

テスト

for j in spec.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in spec.index:
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        spec.at[i, j] = timeit(stmt, setp, number=50)
192
piRSquared

私は前の答えの構文は冗長で覚えがたいと思う。 Pandasはv0.13でquery()メソッドを導入しました、そして私はそれが大好きです。あなたの質問のために、あなたはdf.query('col == val')をすることができます

http://pandas.pydata.org/pandas-docs/version/0.17.0/indexing.html#indexing-queryからの複製

In [167]: n = 10

In [168]: df = pd.DataFrame(np.random.Rand(n, 3), columns=list('abc'))

In [169]: df
Out[169]: 
          a         b         c
0  0.687704  0.582314  0.281645
1  0.250846  0.610021  0.420121
2  0.624328  0.401816  0.932146
3  0.011763  0.022921  0.244186
4  0.590198  0.325680  0.890392
5  0.598892  0.296424  0.007312
6  0.634625  0.803069  0.123872
7  0.924168  0.325076  0.303746
8  0.116822  0.364564  0.454607
9  0.986142  0.751953  0.561512

# pure python
In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]: 
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

# query
In [171]: df.query('(a < b) & (b < c)')
Out[171]: 
          a         b         c
3  0.011763  0.022921  0.244186
8  0.116822  0.364564  0.454607

@を前に付けることによって、環境内の変数にアクセスすることもできます。

exclude = ('red', 'orange')
df.query('color not in @exclude')
50
fredcallaway

より速い結果は numpy.where を使って達成できます。

例えば、 unubtuの設定で -

In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]: 
     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

タイミング比較:

In [68]: %timeit df.iloc[np.where(df.A.values=='foo')]  # fastest
1000 loops, best of 3: 380 µs per loop

In [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loop

In [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loop

In [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loop

In [74]: %timeit df.query('(A=="foo")')  # slowest
1000 loops, best of 3: 1.71 ms per loop
16
shivsn

これは簡単な例です

from pandas import DataFrame

# Create data set
d = {'Revenue':[100,111,222], 
     'Cost':[333,444,555]}
df = DataFrame(d)


# mask = Return True when the value in column "Revenue" is equal to 111
mask = df['Revenue'] == 111

print mask

# Result:
# 0    False
# 1     True
# 2    False
# Name: Revenue, dtype: bool


# Select * FROM df WHERE Revenue = 111
df[mask]

# Result:
#    Cost    Revenue
# 1  444     111
15
DataByDavid

私はこれを編集しようとしましたが、私はログインしていなかったので、自分の編集がどこに行われたのかわかりません。複数選択を取り入れようとしていました。だから私はより良い答えがあると思います:

単一の値の場合、最もわかりやすい(人間が判読できる)ものはおそらく:

df.loc[df['column_name'] == some_value]

値の一覧には、次のものも使用できます。

df.loc[df['column_name'].isin(some_values)]

例えば、

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
               'B': 'one one two three two two one three'.split(),
               'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
#      A      B  C   D
# 0  foo    one  0   0
# 1  bar    one  1   2
# 2  foo    two  2   4
# 3  bar  three  3   6
# 4  foo    two  4   8
# 5  bar    two  5  10
# 6  foo    one  6  12
# 7  foo  three  7  14

print(df.loc[df['A'] == 'foo'])

収量

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

選択したい基準が複数ある場合は、それらをリストに入れて 'isin'を使用できます。

print(df.loc[df['B'].isin(['one','three'])])

収量

      A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

ただし、これを何度も実行したい場合は、最初にAをインデックスにしてからdf.locを使用する方が効率的です。

df = df.set_index(['A'])
print(df.loc['foo'])

収量

  A      B  C   D
foo    one  0   0
foo    two  2   4
foo    two  4   8
foo    one  6  12
foo  three  7  14
11
Jeff Ellen

列内の整数に基づいて行を見つけた場合、

df.loc[df['column_name'] == 2017]

文字列に基づいて値を見つけている場合

df.loc[df['column_name'] == 'string']

両方に基づいている場合

df.loc[(df['column_name'] == 'string') & (df['column_name'] == 2017)]
8
prateek singh

パンダの特定の値に対して複数の列から特定の列のみを選択する場合

select col_name1, col_name2 from table where column_name = some_value.

オプション:

df.loc[df['column_name'] == some_value][[col_name1, col_name2]]

または

df.query['column_name' == 'some_value'][[col_name1, col_name2]]
7
SP001
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})
df[df['A']=='foo']

OUTPUT:
   A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14
6
user15051990

この有名な質問に追加するには(少々手遅れですが):df.groupby('column_name').get_group('column_desired_value').reset_index()を実行して、指定した列に特定の値を持つ新しいデータフレームを作成することもできます。例えば。

import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)

b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1) 
#NOTE: the final drop is to remove the extra index column returned by groupby object
print('Sub dataframe where B is two:')
print(b_is_two_dataframe)

これを実行してください:

Original dataframe:
     A      B
0  foo    one
1  bar    one
2  foo    two
3  bar  three
4  foo    two
5  bar    two
6  foo    one
7  foo  three
Sub dataframe where B is two:
     A    B
0  foo  two
1  foo  two
2  bar  two
6
TuanDT

列の値がいずれの値のリストでもない行を含めることによってデータフレームから行を選択しようとしているのであれば、上記の値のリストに対するunutbuの答えをひっくり返す方法は次のとおりです。

df.loc[~df['column_name'].isin(some_values)]

(単一の値を含まないようにするには、もちろん、通常は等しくない演算子!=を使用します。)

例:

import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split()})
print(df)

私たちに与える

     A      B
0  foo    one
1  bar    one
2  foo    two
3  bar  three
4  foo    two
5  bar    two
6  foo    one
7  foo  three    

one列でthreeまたはBが指定されていない行のみにサブセット化するには、次のようにします。

df.loc[~df['B'].isin(['one', 'three'])]

収量

     A    B
2  foo  two
4  foo  two
5  bar  two
5
Bonnie

.querypandas >= 0.25.0と組み合わせて使用​​すると、さらに柔軟性が高まります。

2019年8月の回答を更新

pandas >= 0.25.0なので、queryメソッドを使用して、pandasメソッドや、スペースを含む列名でもデータフレームをフィルタリングできます。通常、列名のスペースはエラーになりますが、バックティック( `)を使用してそれを解決できます GitHub を参照してください:

# Example dataframe
df = pd.DataFrame({'Sender email':['[email protected]', "[email protected]", "[email protected]"]})

     Sender email
0  [email protected]
1  [email protected]
2    [email protected]

メソッド.querystr.endswithを使用:

df.query('`Sender email`.str.endswith("@shop.com")')

出力

     Sender email
1  [email protected]
2    [email protected]

また、クエリで@をプレフィックスとして使用することにより、ローカル変数を使用できます。

domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')

出力

     Sender email
1  [email protected]
2    [email protected]
3
Erfan
df.loc[df['column_name'] == some_value]
1
John Nero

.applyを使うこともできます。

df.apply(lambda row: row[df['B'].isin(['one','three'])])

実際には行方向に機能します(つまり、各行に関数を適用します)。

出力は

   A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

結果は@unutbuで述べたのと同じです。

df[[df['B'].isin(['one','three'])]]
1
Vahidn