2009-03-16

サマーソニックの出演アーティストに「ザ・トム・トム・クラブ」って書いてあるんだけど、これは僕が知っているあの(「おしゃべり魔女」の)Tom Tom Club なのだろうか……?

kana-r1401.zip (Windows) / kana-r1401.tar.gz (others)

romaji-r1401.zip (Windows) / romaji-r1401.tar.gz (others)

前に書いた漢字と仮名の対応付けについての補足。次のような場合は正しく機能しない。

>>> from kana import pair_readings
>>> pairs = pair_readings(u'李も桃も', u'すもももももも')
>>> print '/'.join('='.join(pair) for pair in pairs)
李=すももも/も=も/桃=も/も=も

これはしょうがない。

更新情報

メカ紫公開。

2009-03-09

二月に注文していた VAIO type P が土曜日にようやく届き、ちまちまセットアップ。字ちっちぇええ! どうすんだよこれ……。

とりあえず Windows PC のお約束として、プリインストールソフトのアンインストールやらアップデートやらリカバリディスクの作成やら使うソフトのインストールやらに時間がかかるので、買ってから数日間は実践投入できない。使い始めたら感想書こう。

それにしても、昨日今日と立て続けに二度も P 使っている人を喫茶店で見かけてしまった。なんか流行りもんになっとる……。そんなだと、ちょっと外で使うのが恥ずかしいな。

ローマ字 Python モジュール

まだなんもドキュメントがないけど、機能はそんなに多くない。ヘボン式、訓令式、日本式、そしてローマ字入力式のローマ字をかなに、またかなをローマ字に変換する。各方式ごとにひとつのモジュールになっているので、import romaji.hepburn などのようにして使う。Python インタプリタの -m オプションでモジュールをスクリプトとして実行すると、標準入力の文字列を変換して標準出力に吐き出すツールとして動く。

C:¥>python -m romaji.hepburn -h
Usage: hepburn.py [options]

Options:
  -h, --help            show this help message and exit
  -f FROM_ENCODING, --from-encoding=FROM_ENCODING
                        source encoding <cp932>
  -t TO_ENCODING, --to-encoding=TO_ENCODING
                        destination encoding <cp932>
  -r, --romaji          kana to romaji

C:¥>echo watashi no namae wa nakano desu. | python -m romaji.hepburn
わたし の なまえ わ なかの です.

C:¥>echo わたし の なまえ わ なかの です. | python -m romaji.hepburn -r
watashi no namae wa nakano desu.

が、ヘボン式も訓令式も長音はアクセント記号付きになるので(おとうさん → Otōsan など)、CP932 のコマンドプロンプト上では UnicodeEncodeError が起こる。-t オプションで出力エンコードを utf-8 などにして、リダイレクトで結果を見ればよい。

やってることはただの最長一致置換ですが、変換テーブルの作成がめんどくさかった。おかしなところがあったら教えてください。

2009-02-25

なにかの購入ページだか登録ページだかで、規約に同意する必要があって、規約へのリンクをクリックすると別ウインドウで規約のページが開いた。それを読んで、元のウインドウに切り替えて「同意する」というリンクをクリック。すると……

「セッションがタイムアウトしました」

……。

規約を読む人がいるとははなから思ってないらしい。21世紀ってさあ、どんどん滑稽になってきてるよね。

MeCab の Python バインディングを Windows で使う話の続き

先日、Windows で MeCab の Python バインディングを使うインストーラを作ったけど、このライブラリで、たとえば次のようなコードを書いて、test_mecab.py foo.txt のように適当なテキストファイルを食わせると、特定の行で python.exe が落ちることがある。(Windows での話で、たとえば Leopard では落ちなかった。)

# test_mecab.py

import sys
import MeCab

t = MeCab.Tagger()

for filename in sys.argv[1:]:
    for line in open(filename):
        sys.stdout.write(t.parse(line))

落ちる時はいつも同じ行で落ちる。が、その行の内容で決まるわけではないらしい(同じ内容の行でも別の場所にあるものは問題なかったりする)。C/C++ で libmecab.dll を使った同様のプログラムを書いて実行した場合は落ちない。また Python からでも、ctypes モジュールを使って libmecab.dll の C 関数を直接呼んで同様の処理をするスクリプトなら落ちない。

MeCab_wrap.cxx のどこで落ちているかまでは追いかけたけど、よくわからない。これ以上原因を探る気力もないし、ctypes モジュールを使って自分でラッパを書いたほうがいいだろうか……。

それにしても、今までよく知らなかったけど ctypes ってすごいですね。

2009-02-22

ひらがな・カタカナを扱う Python 2.x モジュール (kana-r1345.zip)

katakana(s)
文字列 s 内のひらがなをカタカナに変換。

>>> print kana.katakana(u'あいうえお')
アイウエオ
hiragana(s)
文字列 s 内のカタカナをひらがなに変換。

>>> print kana.hiragana(u'アイウエオ')
あいうえお
hankaku(s)
文字列 s 内の全角文字を半角文字に変換。

>>> print kana.hankaku(u'パンダ')
パンダ
zenkaku(s)
文字列 s 内の半角文字を全角文字に変換。

>>> print kana.zenkaku(u'パンダ')
パンダ
upper(s)
文字列 s 内の小書きのかなを非小書きのかなに変換。

>>> print kana.upper(u'キャッツアイ')
キヤツツアイ
lower(s)
文字列 s 内のかなを小書きのかなに変換。

>>> print kana.lower(u'キヤツツアイ')
キャッッァィ

(「キャッツアイ」になると思った人、残念でした!)

voiced(s)
文字列 s 内の清音かなを濁音がなに変換。

>>> print kana.voiced(u'カンタム')
ガンダム
unvoiced(s)
文字列 s 内の濁音がなを清音かなに変換。

>>> print kana.unvoiced(u'ジャイアン')
シャイアン
semivoiced(s)
文字列 s 内の清音かなを半濁音がなに変換。

>>> print kana.semivoiced(u'あさごはん')
あさごぱん
row(c)
かな文字 c の五十音表での行を返す。

>>> print kana.row(u'つ')
た
col(c)
かな文字 c の五十音表での段を返す。

>>> print kana.col(u'つ')
う
normalize(s)
かなを辞書順にソートするために文字列 s を正規化する。sort 関数の key 引数に渡して使うことを想定しています。

>>> print kana.normalize(u'インターネット')
インタアネット
>>> print kana.normalize(u'金子みすゞ')
金子みすず

バグなどあったらご報告ください。

さて、あと何か必要そうなのある?

2009-02-19

漢字かな交じりの文字列と、その読みが与えられたときに、漢字とその部分の読みがなとをプログラム上で対応させる方法の私的メモ。限定的すぎる話でごめん。

「漢字かな交じり」という文字列に対して「かんじかなまじり」という読みがなが与えられたとする。これを、

漢字
かんじ

のように、対応づけたい。楽をするために正規表現を使います。

import re

word = u'漢字かな交じり'
reading = u'かんじかなまじり'

まず、かな文字のテーブルを用意する。

kana_letters = u'あいうえおかきくけこ...'

続いて、以下のような正規表現を構築する。

rx_word = re.compile('([^%s]+|.)' % kana_letters)

これは、「かな文字以外の任意の文字の連続、またはかな1文字」を表している。この正規表現にマッチする単位で文字列を区切っていく。

L = rx_word.findall(word)

ここで L[u'漢字', u'か', u'な', u'交', u'じ', u'り'] になっている。この単位で、今度は読みがなにマッチさせる正規表現を作る。

tokens = []
for term in L:
    if term in kana_letters:
        tokens.append('(%s)' % term)
    else:
        tokens.append('(.+)')
re_reading = '^%s$' % ''.join(tokens)
rx_reading = re.compile(re_reading)

分割された文字列がかな文字であればそれをそのまま、かなでなければ '.+' のパターンを割り当てて、それを連結する。re_readingu'^(.+)(か)(な)(.+)(じ)(り)$' になっている。あとはお察しの通りこれを読みがな文字列である reading にマッチさせる。

m = rx_reading.match(reading)
if m:
    for term, term_reading in zip(L, m.groups()):
        print term, '-', term_reading

re_reading の各パターンを括弧でくくっておいたので、m.groups() でマッチ部分をリストとして取り出せる。この数は L に一致してるはずなので、zip 関数で双方をセットにしてひとつずつ取り出せる。

結果。

漢字 - かんじ
か - か
な - な
交 - ま
じ - じ
り - り

基本は以上。表記揺れとかカタカナ対応とか各漢字ごとの読みの推測などをやろうとすると他にも工夫が要るけど、骨子は同じ。