エントリー

ユーザー「gshoes」の検索結果は以下のとおりです。

ハブを入れ換えた

  • 2020/12/02 15:27
  • カテゴリー:散財

 10月にADSLから光ファイバに切り替えてから,しばらくの間は出来るだけログの監視を行うようにしていました。

 ルータの障害ログを見ていると,どうもルータとハブの接続が頻繁に切れているようなのです。切れている時間はいつもきっかり3秒。ひどいときは1日に3回ほど当初は3日に一度程度,リンクダウンとリンクアップを繰り返しています。

 3秒くらいの切断なので実害はなく,しばらくは様子を見ていたのですが,これが11月には1日に3度ほど繰り返すようになりました。原因くらいは特定しないとなあと,ケーブルを変えたり繋ぐポートを変えたりしましたが変化なし。

 そこでハブを手持ちの5ポートのものを挟んでみたところ,ピタッと切断が止みました。原因はこれです。

 うちがルータの直下に配置しているハブは,16ポートのアンマネージドスイッチで,プラネックスのものです。家を新築したときに用意したものですので,7年くらいになるんでしょうかね。当時7000円くらいで買ったものですので,そんなにいいものではありません。

 ハブは消耗品というのはよく言われていることのようで,私も何度もハブの故障,それも運が悪く壊れたというのではなくて,寿命で穏やかに死ぬ,と言う故障を何度も経験しています。

 故障すると速度が遅くなったり,突然切断して復活したりと,不安定な挙動になりますので気付きにくく,完全に壊れてしまって切断されっぱなしになっても他の原因ばかりを考えてしまうので,ハブの故障というのは案外盲点だったりします。

 ハブの故障に多いのは,電解コンデンサの劣化だそうです。分かっていたら品質の良いものを使えばと思うのですが,電解コンデンサを使う以上劣化は避けられず,これが熱を持つハブのような機器では仕方がないことです。

 そういうことならとハブの中に入っている電解コンデンサを交換して様子を見たのですが,取り外した電解コンデンサに劣化がほとんどなかったことから,あまり期待はしておらず,最初の10日ほどが切断なく動作していたものが,しばらくすると切断を繰り返すようになってしまいました。

 これを,本格的な故障の予兆ととらえるべきか。

 ちょうどamazonがセールをやると言うので,この機会にハブを買い換えることにしました。

 すでにポートの残りは1個という状態で心許なく,8年近くも使ったんだからもう買い換えてもいいよと言うことで,24ポートを買うことにしたわけですが,問題はマネージドにするかどうかです。

 家庭内で使うハブですのでそこまで必要ないのですが,うちはNASをポートランキングで帯域を広げて繋げていますので,出来ればLAG対応のハブを使いたいところです。

 しかし,802.3adのLACPに対応したハブは高価ですし,まあそこまで必要はないだろうということで,静的LAGまでの対応である,なんちゃってマネージドハブを買うことにしました。

 結局,価格破壊で業界震撼のTP-LINK製,TL-SG1024DEを選びました。13000円。

 イージースマートスイッチと呼ばれるもので,WEBから管理出来ますしVLANもLAGも設定可能です。24ポートで13000円は安価だと思いますが,例えばバッファのサイズなんかは少なめで,このあたりがいかにもアンマネージド出身だなと思わせます。

 届いたハブを早速設置し,ポート1と2をLABに設定,NASはBalance-xorを選択します。特に問題もなく,ポートトランキングが動き出しました。

 ネットワーク負荷をみていると,一応負荷分散が行われているような感じなのですが,体感上はもちろん数字の上でも速度の向上は見られません。

 それもそのはず,すでに100MB/sedほどの速度が出ていて,すでにHDDの速度の限界に近いところで動いているからです。SATAの上限ではありません。磁気ディスクとヘッドの間の転送レートの上限です。このあたりがHDDの苦しさですよね。

 複数のマシンからアクセスしてもこの100MB/secを分け合うような形になるので速度は出ませんし,それならなんのためのLAGなんだという話になるんですが,まあこういうのは気分のものでもあります。

 そして最大のポイント,リンクの切断ですが,設置以降一度も切断は起こっていません。やはりこれが原因だったんだなあと思います。

 心なしか,ちょっと待たされることが減ったことや,speedtestでも良い成績が出るようになったように思います。安定性が上がったことはとても大事な事ですし,いつ壊れて完全に切断されてしまうか不安だったことを考えると,交換して良かったなあと思います。

 24ポートですので,空きは9つもあります。以前はイーサーネットを持つ機器などそんなに増えるわけないと思っていましたが,プリンタやオーディオ機器,RaspberryPiなどが普通に持つようになってきたこともあり,以外に使い潰してしまうものだと思い知りました。

 WiFiなら問題ないとも言えますが,WiFiはそれこそ繋がったマシン全部で帯域を共有しますから,単独で1Gbpsを持つ有線にはかないません。WiFiで運用が前提のタブレットやノートPCに優先的に帯域を使ってもらいたいので,それ以外のものは出来るだけWiFiから追い出しておきたいところです。

 そんなわけで,地味なところですが,ネットワークの足腰を支えるメンテは終了。テレワークも続いているので,家庭内のLANがしっかりしていることはとても重要で,トラブルが起きてからあわてて対応していたのでは仕事を休むことになってしまいます。未然にトラブルを防ぐことも,ネットワーク管理者の大事な仕事なんだなあと思いました。

Apple M1にみた気高い理想とそれを具現化する力

これまで,iPhoneやiPadといった自分に関係のない製品の心臓部であるAシリーズには今ひとつ関心を持たずにいて,そのせいでCPUそのものを細かく見る機会を失ってわけですが,AppleM1と搭載したmacbookを注文したことで,俄然自分の問題としてApple謹製のCPUの性能が気になり出しました。

 ARMプロセッサというのは,コアあたりの性能は控えめであり,その代わり消費電力が大幅に低いものというのが定説です。それは,もともと電池で動く製品に搭載されることで採用例が増えてきたCPUだからです。

 その製品が消費電力優先ならARMですし,どんどん電力を突っ込む事が許されるならインテルのCPUを使うというのは,わかりやすい使い分けです。

 以前はそうでもなかったのですが,今どきのCPUにおいて,こうした性能の違いというのは,バイナリの互換性,すなわちプログラミングアーキテクチャに起因するものではありません。

 以前は確かに,プログラミングアーキテクチャとマイクロアーキテクチャ,もっというとハードウェアの実装との間には強い関連性があるので,ハードウェア作りが上手な会社,すなわち先端プロセスを持つ大きな会社だけが高性能なCPUを作る事ができました

 しかし,今はそれぞれ,互いへの依存性が低くなっています。製造なら製造に,設計なら設計に,それぞれ特化した会社が普通になったことで,それぞれの得意とする分野だけ注力し,他は他社に任せることが出来るようになったこと,そしてそのために他の会社とのやりとりをスムーズにするためにそれぞれのブロックの抽象化と,境界面のインターフェースを標準的なものに収れんさせていったというのが,その流れです。

 だから,昨今インテルの調子が落ちているというのは,分業化に背を向けてアーキテクチャからプロセスまでを一手に握ってきたインテルが,餅は餅屋という分業化に性能面でも追いつかなくなってきた,というわかりやすい予測に従った結果とも言えます。

 なら,ユーザーであるAppleがインテルを見限ったのも道理であり,最先端の製造技術を持つ会社が自分たちのためにも汗をかいてくれるならば,自分たちはそこで作るものを設計しよう,その代わり最高水準のものにしようと思うのも,まあ当たり前です。

 現実にはそうではないかも知れませんが,TSMCのような製造の会社というのは,技術と費用が政治的な思惑で大きく変動しないものです。お金があれば性能があがる,そういう公平さを期待出来るのです。

 インテルが世界最高レベルの半導体を作っていることには違いはありませんが,その製品を使うにはお金だけがあればいいと言うものはなく,インテルに対する信頼であるとか,忠誠心のようなものさえも時に必要になります。そしてそれは強い足かせにもなり得ます。

 インテルがなんでも自分でやると言う作戦で限界にぶちあたる一方,手分けして各々が得意な分野に取り組む事で,結果的に世界最高の寄せ集めが可能になった今のCPU作りが大きく伸びるのは,もはや必然と言えます。

 TSMCという台湾の会社とARMというイギリスの会社がその中心的存在であることは,アメリカや日本,あるいは中国と言った少々面倒な国の会社が中心になることに比べ,公平性や偏りのなさがあると思いますし,ついでにいうとこれらの常に注目される国の会社ではないことで,ずっと傍流として注目されずにいられたので,ややこしい人達から足を引っ張られることがなかったからじゃないかと思っています。

 Appleが半導体の工場を持つ事なく,自分たちの半導体を(1つ2つを作るのではなく膨大な量を)作る事が出来るのはこうした背景があるからで,だからこそAppleは半導体の中身を洗練させるために,世界最高の設計者やアーキテクトを集めることに専念出来たのです。

 その結果がApple Siliconです。

 私は今さら驚いたわけですが,A14やM1の高性能側コアであるFiresotrmは,シングルコアのクロックあたりの性能(IPC)は,すでにインテルのモバイル向けのCPUコアであるIceLakeよりも,高くなっています。

 ARMがインテルよりもIPCで勝つなんて,少し前なら信じられません。コアそのものの性能もそうですが,本当に強い足腰を持つシステムというのは,データの出入り口とデータの通り道がへこたれないように,きちんと作られているものです。

 ARMのCPUは数字よりも体感で実力が出ないというイメージが私にはあり,それは特に高負荷で大きく性能が落ちたことを体験しているからですが,その原因はバス設計の貧弱さにありました。

 性能は大きな消費電力との引き換えでしか手に入らなかったはずです。しかしApple Siliconはすでに,インテルよりも低い電力でインテルを越える性能を手に入れているというわけです。これは驚きです。

 FireStormコアは,8命令のデコードを行うデコーダを持ち,6つのALUを持っています。つまり同時に6命令(ブランチは別にあります)を実行出来ます。IceLakeはALUが4つですから,理想条件ピークでは1.5倍の性能差があります。

 もちろん,ALUを増やせば性能が上がることはインテルもわかっていますが,1つにはx86の命令セットでは6命令を同時に実行することが難しい事があります。それを行う為には回路規模が大きくなってしまうので,電力も歩留まりも悪化するというわけです。

 その上インテルは最先端プロセスに開発に失敗して,トランジスタの数を増やせません。TSMCは5nmの最先端プロセスを持つ唯一の会社であり,膨大なトランジスタの使用を許す技術を持っていて,Appleはそのトランジスタを電力と性能の両立に使うことにしたというわけです。これじゃインテルがかなうはずもありません。

 それでも,そうした不利な条件にもかかわらずインテルのCPUが相変わらず高性能であることにも驚くわけですが,その伸びしろは残り僅かになっていて,ここから先は大きな努力が必要な割にはそれ程の見返りがないという状態です。これではライバルに勝てません。

 今インテルは,大きな岐路に立たされています。苦しいでしょうね,きっと。

 感慨深いのは,私がかつて最高のパソコン用CPUとして絶賛したPowerPC604の同時実行数を越えたコアが,またAppleに搭載されたという事実です。実行ユニットを増やすほど性能の向上は緩やかになりますので,PowerPC604は回路規模が大きく無駄が大きいCPUにも見えました。

 しかし,負荷の大きさの変化に対する処理速度の変動が小さい,トルクの太いPPUでした。ゆとりがある,贅沢な設計のCPUだったことが伺えます。

 もちろん絶対的な古さからPowerPC604の性能は頭打ちになり,その後G3やG4,そしてG5がはるか先に進んでしまったのですが,IBMらしい正攻法による性能の向上という気高い理想がそこにはありました。

 しかしその後,こうした無駄は許されなくなり,ALUの数は多くても4つくらいになりました。やがてコアの数を調整して性能向上を図るのが一般的になり,PowerPC604のようなCPUはもう二度と現れないと思っていました。

 しかし,Firestormは,しれっとそれをやってきています。もちろんコアも増やすという両面作戦です。Apple M1は,単体でも1.5倍の性能を持つコアを8つも搭載している訳ですから,これが低性能なわけがありません。

 とはいえ,実際に使ってみないと,トルクの太さというのはわからないものです。でも,これだけの技術的な裏付けがあるのですから,期待してもいいでしょう。

 Apple M1は急に登場したCPUではありません。A14を含む,これまでのiPhone用のCPUをきちんと追いかけていれば予測可能であり,順当な進化を遂げたCPUであるとわかったはずです。

 だから,私がこうして大慌てしているのはとても恥ずかしいことで,反省することしきりですが,すでにブームが去ったと思われるCPUのアーキテクチャに関する話題が,まだ扱われていることは素直にうれしいと思います。

 最初は生活マシンを新調するという楽しみでしたが,PowerPC604を越える気高い理想を具現化したCPUを叩くチャンスが訪れることが,さらに楽しみです。

 

ARMへ移行するmac

 M1?

 BMWが紆余曲折の末に発売したスポーツカー?
 オリンパスが数々の画期的なアイデアで小型化した一眼レフ?
 (あるいはミラーレス一眼のフラッグシップモデル?)
 コルグが満を持して発売し世界を席巻したデジタルシンセサイザー?

 私が思いついた「M1}には偏りがありますが,googleで「M1」を検索すると,まあ出るわ出るわ。漫才グランプリからラジコンヘリ,果ては粉ミルクに至るまで,みんなこの語呂が好きなんだなあと思います。

 先日発表された新しい3つのmacは,AppleM1というCPUに持ち,インテルのCPUからの置き換えの口火を切りました。これは,macの長い歴史に大きなトピックとして書き加えられることでしょう。

 皮肉にもAppleM1のアーキテクチャであるARMにも,Cortex-M1という「M1」があるのですが,これは組み込み用途のローエンドをカバーするプロセッサであり,PC向けのものではありません。

 さすがに混同されないのは,それぞれに関係する人間に重なることがないからなんだろうと思いますが,M1という言葉の響きには頭にすっと入ってくる自然さと将来への期待が感じられて,なかなかよいんではないでしょうか。

 前置きはともかく,パソコンの黎明期に多感な時期を過ごした私にとって,PCの個性の最たるものであるCPUが変わってしまうことには,未だに大きな驚きがあります。

 CPUを交換するというのは,いわば「脳みそ」を交換するようなものであり,そこを変えたらもはや別人なわけで,同じ名前を名乗ってよいのか,同じ商品として売って良いのかと,首をかしげてしまいます。

 OSが同じでもそれは別人が同じ服を着て「変装」しているに過ぎないと見え,うがった見方をすれば消費者を騙す戦略と言えるかも知れません。だって,同じ見た目なのに,話す言葉が違うんですよ?

 ただ,現実はどうかというと,CPUが変わったことに誰も気が付かず,気が付いても実害がないので問題にしません。そして最も大事なことは,これが初めての事ではないということです。

 最初の驚きは,68kからの移行でした。当時のMacはモトローラの68000を起点に拡張を続けていましたが,今からは信じられないほどCPUのアーキテクチャにベッタリと依存したシステム構成で作られていました。

 だから,単純なコードの変換では済まず,ソフトの作り方から学び直さないといけないといっても良いほどの大事件だったのです。

 それでも当時のAppleには,重装備なCISCチップが性能向上をリーズナブルな形でモトローラが実現出来るとは思えず,MacのCPUにRISCチップからPowerPCを選択して将来を託します。

 インテルはx86をその強力な技術力で成長させたので,CISCが最高性能のコンピュータの構成要素にならないとは,理論的に言えません。しかし,そのために必要な条件やリソースは並大抵なものではなく,それはもはやインテルしか解決出来ないものであったと言えると思います。

 インテルはそのために,CPU以外のものを捨てて集中しました。儲けたお金をどんどん開発につぎ込み最高性能のCPUを作り続けてきたのですが,これも今にして思えばx86を捨てて新しいアーキテクチャにしていれば,もっと安上がりに作れたか,もっと高い性能のものが作れたのではないかと思ったりします。

 モトローラは巨大な企業でしたが,68000をインテルほどに強化することは技術的にも経営的にも出来なかったと思います。だから88000というRISCを用意するのですが,それも失敗におわります。

 焦ったのは顧客であるAppleです。当初88000で作ろうとしていた次世代のMacの見通しが立たなくなってしまったところに,あのIBMが秋波を送って来ました。かくしてAppleは,かつて挑発をして破れた世界最大のコンピュータメーカーでRISCチップの生みの親でもあるIBMのCPUを使うことに決めるのです。

 あわてたモトローラはこの連携になんとか食い込むことを画策し,かくてPowerPCの最初の製品であるPowerPC601は88000のインターフェースを持つ異端として生まれ,88000で動いていたMacの頭脳として動き出すのです。

 こうして誕生したPowerMacintoshは,68kの呪縛から解き放たれて性能向上や製品ラインの強化に成功します。ソフトの互換は長い時間をかけてネイティブ化を進めますが,当座は68kのエミュレーションでしのぐことになります。

 なにもかも異なるコードをエミュレーションで動かすのですから,「動くように作れば動く」というレベルだったように思えるくらい,動かないものが多かったと記憶しています。速度の低下も大きく,FPUのサポートは結局なされなかったと思います。

 68kのままでも将来はなく,PowerPCでも見通しは暗い,その上x86の性能向上はめざましく,Windows95はバカ売れです。ここでAppleはもう死ぬんだと多くの人が思ったでしょう。

 なんとか苦しい時期をしのぎ,PowerPCがその本領を発揮するようになると,デスクトップのハイエンドはともかく,今後主流になると彼らが考えていたノートPCを,彼らの思うように作る事が出来ないという現実に直面します。

 Appleは早くからノートPCが個人用コンピュータの主流を占めると考えていた節があり,それはWindowsの世界よりも明確だったと思うのですが,残念な事にPowerPCがそのビジョンを邪魔するようになっていました。

 当時のIBMの半導体の開発力は凄まじく,彼らが本気になればなんでも出来たはずですが,残念ながらPowerPCやPOWERはハイエンドの性能重視の製品に搭載されていて,ノートPCなどはインテルのCPUでいいじゃないかという判断がありました。

 「いずれノートPCが最高性能を求められるようになるんだ」というAppleの未来予測をIBMが理解してくれず,そのために絶対に必要だった低電力・低発熱・高性能なPowerPCへの理解がないことに,袂を分かちます。

 そして,IBMに匹敵する唯一のメーカーである,インテルのCPUを使うのです。

 この頃になると,CPUのアーキテクチャに依存するようなソフトを書くことは少なくなっており,すでにApple社内ではすでにMacOSXがインテルCPUで動作しているとも言われていました。

 少なくともCPUのアーキテクチャとは分離した形でOSやライブラリは整備されており,これに当時実用化されたダイナミックトランスレーションを用いたことで,PowerPCからインテルへの移行は,それほどの混乱もなく完了したのです。

 もちろん,PowerPCとx86では数字の並び順が違うという根本的なところに違いもあり,簡単なことではなかったはずです。しかし,ダイナミックトランスレータであるRosettaの出来が良く,またインテルのCPUの性能が高かったこともあって,インテル搭載のMacに買い換えることは,速度的なメリットを生むことになりました。

 そしてAppleは,クリエイター向けのハイエンドマシンとしてノートPCを提供出来るようになり,彼らのビジョンをあきらめなくてもよくなったのです。

 Appleはその後iPhoneの大ヒットで自社に半導体設計能力を抱えるようになります。最も重く大変な開発環境がすでに用意されているARMを使えば,自分に都合のいいCPUを開発することも難しい事ではありません。

 一方のインテルはCPUの覇者であることに変わりはないものの,その勢いや技術力に陰りが見えてきました。最先端のプロセスの導入には何度も失敗しているし,同じx86でもAMDの性能面で差が開いてきつつあります。消費電力も下がりません。同じような性能を持つCPUを自社で作り,それが遙かに小さな電力で動作することを目のあたりにすると,もうインテルのCPUを使う理由がなくなります。

 なのでAppleは,自社製のCPUに切り替える決断をします。それがApple siliconです。

 今のAppleにはお金も技術も人材もあります。不満のあるCPUを使い続けるような貧しい我慢をしなくてもよく,世界最高の半導体を使うという贅沢を迷わず選ぶくらい,豊かになったということでしょう。

 とはいえ,そこは技術の世界です。ARMに切り替えたmacが,バイナリ変換をしながら実行する速度が,インテルCPUのmacにかなうはずもないと私は思っていましたし,OSもRosetta2も不完全で,互換性に難ありだと思っていましたから,私は買わないつもりでいました。

 実は,私の生活マシンである11インチのMacBookAirがかなり厳しい事になっていて,どこかで買い換えないとまずい状態になっています。2011に購入した古参のMacですが,11インチという手頃なサイズとキーボードの心地よさから,買い換えるチャンスを逃してしまいました。

 すでに最新OSが動かなくなって久しく,自己責任でなんとかcatalinaを動かして延命している状態です。しかし,それもいよいよ怪しくなってきましたし,すでに実用レベルの速度で動かなくなっており,メールを見るのもwebを見るのも苦痛で仕方がなくなっています。

 生活マシンですので特殊なソフトも周辺機器も必要なく,Apple siliconへの切り替え(と新しいOSへの移行)にはうってつけな条件だったのですが,やはり初物は怖いという事と,結局11インチは出なかったということもあって,見送りの予定でいました。

 ですが,評判を聞くとすでにインテルのCPUのmacより高速で快適だというじゃありませんか。

 悩んだ末,私は13インチの最も安いmacbook airを注文したのでした。英語キーボードを注文したので,入手はまだまだ先ですが,仕方がありません。

 ということで,少しだけ今回のApple siliconへの移行を考えてみます。

 まず,移行の理由はインテルのCPUでは自分たちの目指すノートPCが作れなくなるだろうと考えたからだと思います。それでもインテルはAppleの要望をIBMよりもずっと聞き入れていたと思いますが,それもインテルに実現するだけの世界一の技術力があってのことです。

 話を聞いてくれても実現出来ないなら意味はない,インテルが今回見限られたというのはこれに尽きると思います。

 そして,インテルがどうしても聞き入れてくれなかった,CPUの性能差による製品ラインナップ構築を,自社CPUにすることでようやく撤廃できると考えたからでしょう。

 よく言われるように,インテルはCPUをクロック周波数やコアの数,キャッシュの大きさなどで細かくグレードに分けて,価格を変えています。昔からそれが当たり前のことだったので違和感を感じずに来ましたが,とはいえ実際に購入する時になると,さずか数百MHzの近いに数万円の差があることを許すか許さないかで葛藤する「面倒臭さ」がありました。

 これを楽しいと思う人でも,iPhoneで同じ事をされたら困るでしょう。そう,iPhoneもiPadも,CPUの性能で製品ラインナップが構築されているわけではないのです。

 考えて見るとこれはすごく自然な事で,製品の構成部品の1つに過ぎないCPUの性能で選ぶコンスーマー製品などPC以外に存在しません。ゲーム機だってそうですよね,PS5がCPUの性能で3つのグレードに分かれていたら,大きな違和感を感じるはずです。

 またしてもAppleは不自然な当たり前を自然なものに書き換えようとしています。それは多くのお金と力を持つ者しか許されていないことで,私は蓄えた財をこうしたことに投下できるAppleを好意的に感じています。

 かくしてmacBookAirとmacBookProはCPUの性能差ではなく,それ以外の特徴によって分類されることになったのです。なんと自然な事か。

 私が感心したのは,まさにこれでした。ようやく半導体技術者の勝手な都合からPCを取り戻すことが出来たのです。長い道のりでした。

 Appleはインテルと違って,CPUが商品ではなく,製品を作る部品の1つに過ぎません。インテルのCPUを選んでいるのでは私ではなくAppleでしたから,結局CPUの性能を私に選ばせていることに,責任回避のような,ある種のモヤモヤが拭えなかったのです。

 ようやく望ましい未来がやってきたと感じます。うれしいですよね。

 性能面では,M1というチップにはまだまだ物足りない者があります。クロックは3GHz程度のようですが,CPUの8つのコアのうちハイパフォーマンスのコアは4つしかありません。処理が重くなったときにググッと引っ張るトルクは,やはりインテルに分があるように思います。

 マルチチップで搭載されるメインメモリも足かせでしょう。メモリの不足だけはどうにも深刻で,CPUコアと密に繋がって性能を高めることは,当時にメモリを拡張できないという不自由さに直結しますから,製品寿命は短いとみるべきです。

 電力の低減にも効き目はありますし,部品点数を削減することにも効果はあります。しかし,長く使おうというユーザーには厳しいものがあり,そこもmacがスマートフォン化していくのだと見るべきかも知れません。

 すでにAppleはGPUについてはアーキテクチャに依存しないMetalに移行できている関係で,種類やコアの数にそんなに制限を受けることはありません。エミュレーションではなくダイナミックトランスレーションで十分な速度が得られる理由はここにもあり,上手い設計をしていると感心します。

 それでもこれらデメリットが霞んで見えるのは,その消費電力の低さです。電力が小さいと冷却も簡単で済みますし,電池も小さく出来ます。製品自体を小さくすることも出来ますし,安くすることもできます。消費電力が大きいことは誰の得にもならないことなのです。

 もしかすると,AppleはiPhoneとiPadのようにハードウェアの大部分は共通化し,OSの違いで製品を作り分けることを考えているのかも知れません。以前macがiPhoneとOSを共通化するのではないかという噂が出ていましたが,共通化するのはむしろハードウェアであって,OSを変えることで製品とターゲットユーザーを変えるのではないでしょうか。

 そうなると,必要なのはCPUのスケーラビリティでしょう。クロック周波数を上げるのか,コアの数を増やすのか,もっと簡単に搭載するCPUの数で調整出来るのか,それはわかりませんが,今のmacproを越える性能を出すのは,そう簡単なことではないはずです。

 ただ,性能の向上はCPUを増やすことと,それらを上手く繋ぐことにあるというのは,数々の成功例を見てももはや常識です。かの「富岳」のような構成のバケモノマシンがmacproとして登場することも,あるいはあり得るかもとワクワクしてきます。

 今回のOSのアップデートで,macosはバージョン10から11へと,ようやくメジャーアップデートを果たしました。ARMへの移行というより,CPUのスケーラビリティと性能の調整の仕組みがきっと重視された設計になっているに違いありません。

 私にMacBookProは,ソフトの互換性の問題で今だにMojaveのままです。MacBookAirは瀕死の状態ですし,こういう苦しい状況を新しいMacBookAirが一気に解決してくれると期待しているだけに,届くのが楽しみです。

 

N-30がES9028で音を出す

 うちにはN-30という安いネットワークオーディオプレイヤーがあります。まだパイオニアがオーディオメーカーとして存在していた頃に,最も安い価格で登場したフルサイズのコンポーネントです。

 SACDの次はネットワークだと予想して,実際にその通りになった現実を見ていると,そのための再生環境がなかなか厳しい事に気が付きます。

 国内メーカーの製品はどれもマイナーな存在,一応10万円クラスの中級機はあるにはありますが選択肢が少なく,そこから上という事になると海外製の超高級機になりますが,そんなものは私にとってはないも同然です。

 中級機で気を吐くのがマランツですが,個人的に言わせてもらえばマランツと言うよりデノンのネットワークオーディオのUIや安定性がとにかく好きになれず,これが理由でマランツはアウトなのです。

 今さっと調べてみると,実売3万円でヤマハの製品が売られており,これがなかなか高評価です。ディスプレイを割り切ってスマートフォンで操作するというUIはこれはこれで潔いかも知れません。

 そんなことを考えていると,N-30を改造するネタを思いつきました。N-30が気に入らないのは音質ですが,これは本気のオーディオはアナログレコードかSACDと考えていた(別に言い方をすれば逃げていた)からで,音質よりはCDを持ってこなくて良いという利便性を優先していた結果です。

 しかし,新しいディスクは買うことがめっきりなくなり,手軽さとフォーマットによる制約から逃げるために私も配信の音楽を買うことが増えました。そうするともうこちらも本気のオーディオにするしかありません。

 かといって,今から20万円の予算を組んでネットワークオーディオを構築するのもなんだかもったいなくて,それならとN-30の延命を考えました。

 N-30の音質は重心が高く,ザラザラとして芯が詰まっていない印象があります。典型的な低価格機の音なのですが破綻はしておらず,安いなりに精一杯頑張っていると思います。

 ただ,これがRaspberryPiとVolumioで作ったプレイヤーに,安いDACを組み合わせたようなライトな感じをを漂わせていて,聴き込んでいこう気分を削いでしまいます。

 N-30はDACがAKMもAKM4480,後段のフィルタはNJM4580で構成されています。AKM4480は安価な機器によく使われているエントリクラスのDACです。悪くはありませんが,やはり軽い印象です。

 NJM4580は安いし手に入りやすいのでバカにされがちですが,私個人はとてもいい音がするOP-AMPだと思っていて,これを上手く使いこなした機器であればわざわざOP-AMPを交換することなどないと思っています。歪率などのスペックもデータシートに書かれた値よりも実力は良かったりするので,下手に海外製の高級OP-AMPにする必要などないなと思う訳ですが,音の傾向はやはり軽めです。

 アナログレコードの音を基準の1つとして考えている私としては,解像度よりも密度や重心の低さを楽しみたいわけで,ならばとN-30を改造することにしました。

 調べてみるとN-30はメイン基板からDAC基板への配線が判明していて,ごく普通のI2Sです。ただ,DAC基板にはそこで使う±15Vにアナログ用電源の回路も搭載されていて,電源の入力はAC30Vです。

 これにあうものを探してみると,ありましたりました。ESSのES9028Q2Mを搭載し,I2S入力のアナログ出力,電源回路込みというまさにおあつらえ向きのボードが3000円弱です。

 この手の基板モジュールは,最近特に中国のメーカーから有象無象に出ているものをよく見かけるようになりました。よく知られているのがLCDとコントローラ基板です。この2つがあればHDMI接続のディスプレイなどは簡単に作れてしまうわけで,私が以前購入した10インチのディスプレイも,これらを使ったものでした。

 コントローラとLCDの間は規格化されているので,まさに目的に応じた物を選んで差し込むだけで出来上がります。確かに中国では,以前ほどではないにせよ人件費も安いと言われていて,それがさも製品価格の安さの理由になっているような印象を受けますが,モジュールを大量に作るメーカーがあり,これを自由に組み合わせてさっと製品を作ってしまう水平分散の産業構造も安さの秘密ではないかと思いますし,そのために彼らは合理的なモジュールの規格化を進めてきたのだと思います。

 オーディオもしかりで,ES9028のような部品レベルで素人が手に入れる事が難しいものでも,こうしてモジュール基板で安価に手に入ります。安くて便利で,夢のようです。

 早速頼んでみましたが,良い設計をしていると一方で,品質管理や保管環境が今ひとつだと感じました。このあたりはもう一息だと思います。

 この基板が搭載するES9028Q2MというDACはかのESSのハイエンド向けDACです。前作のES9018はDACの世界を変えたと言われるほどの高音質で知られていますが,その後継品種として登場したものの1つです。

 2ch専用にすることで回路を簡略化し,小型化と低消費電力化を行ったものがこの基板には使われていますが,基本的な構成と性能は上位のものと同じとされています。この価格でESSの音が楽しめるなんて,ウソみたいです。

  ESS9028Q2Mからの差動電流出力は,NJM5532を使ったI-V変換に入り,差動電圧出力に変換されます。バランス出力端子にはここからの信号が出てきます。

 さらにNJM5534を使ったバランス-アンバランス変換とLPFを兼ねた回路に入力されて,シングルエンド出力として出てきます。

 電源はAC30Vでセンタータップが必要,これに加えてロジック用のACが必要で,これはAC7V程度もあれば十分です。

 入力信号はES9028Q2Mに直接入るもので,MCLK,BCLK,DATA,LRCK,DATAという普通のI2Sです。フォーマットは・・・調べてないのでよく分かりません。

 よく分かりませんが,N-30から取りだしたI2Sをそのまま突っ込むと,都合良く音が出てきました。いろいろなサンプリングレートにも対応するので,問題なく動作しているようです。

 音が出るところまで確認出来たら,後はアナログ部分のアップグレードです。まずI-V変換のOP-AMPを交換です。I-V変換は音質への影響が大きいので,ここは高精度,高音質なものを使いたいです。PCM1704を使った自作のDACでは,迷わずOPA627を使ったところです。

 あいにくOPA627は手持ちもないですし,差動で使いますから合計4つも必要です。そこで手持ちのOPA604の2個入りであるOPA2604を使うことにしました。

 LPFのNE5534は,シングルの音質の良いOP-AMPが手持ちにないのでこのまま使うことにしようと思っていましたが,回路を追いかけると位相補償もオフセット調整も行っておらず,これらの端子はすべてオープンでした。

 ということは,2回路入りのうち1回路だけ使うという作戦がとれます。

 腐るほどある面実装のOPA2134を変換基板に取り付けてDIPにする時,ちょっと足を入れ換えてNE5534として使えるようにしたところ,これが上手く動作してくれました。よし。

 あとは音質に影響のありそうなコンデンサと抵抗を入れ換えていきます。

 まずコンデンサはLPFの時定数に関係する390pFと100pFをマイカコンデンサにします。手持ちの関係です。

 抵抗はI-V変換の560Ω,LPFの時定数に関係するものをすべて金皮に変えます。これも手持ちで済ませたいので,並列に繋いでなんとか値を作り出しました。

 電源は,AC30Vはそのまま流用,デジタル用の電源は流用出来るものがないため,AC8Vのトランスを1つ追加しました。


 少しずつ作業をして3日ほどで完成,今回はトラブルもなく,難しい改造もしないようにしたため,悩むことなく終了しました。

 さて,肝心の音ですが,狙い通りです。これまで硬質で薄い殻のようだった音が,しっかりと中身の詰まった重心の低い音に変わっています。ザラザラとした荒っぽさもとれ,滑らかで上質な音になりました。

 また,位相特性も改善されたのだと思いますが,定位感が抜群になりました。それぞれの楽器がバチッと定位するのはもちろんですが,知れらが平面的ではなく,ちゃんと奥行きが出ています。定位の精度が高まった結果,それぞれの音の発生機構の容積を表現出来るようになっているのだと思います。

 とにかく,密度の高い音である事が素晴らしく,簡単な改造でこれだけ改善するというのは素晴らしいです。

 うちではもっとも高性能なDACが作り出す音が,N-30から出てくる事になりました。N-30をもうバカには出来ません。うちのメイン機材に昇格することになりそうです。

 ところで,20年以上前に作ったPCM1704のDACのアップグレードも検討中です。このDACは私にとっては記念碑的なものであり,現在の私の有り様を決めてくれたありがたい存在です。

 製作当初はPCM1702にSM5842APという組み合わせで最高の音を狙っていましたが,10年ほど経過したところでPCM1704にアップグレードしました。

 8倍オーバーサンプリング24bitデジタルフィルタと24bitのマルチビットDACによる音は他を寄せ付けないものだったのですが,ハイレゾに対応しないため使うことがなくなりました。

 そこでハイレゾ対応にする計画を立てたのですが,あいにくSM5842APの後継に当たるチップはなく,TI純正のDF1706はすでに入手不可能,ここに至って現行システムをそのままハイレゾ化することはあきらめざるを得なくなりました。

 そうなると手は2つあり,1つはデジタルフィルタをなくして直接DACにPCMを突っ込む方法です。一部のマニアの間で評判の方法で,デジタルフィルタが発生させるプリエコーなどの有害な信号が原理的に発生しないことが評価を得ています。

 ハイレゾの時だけ直結という動作も考えたのですが,サンプリング周波数が変わってしまうとポストフィルタの設計を見直さなくてはならず,またここはディスクリート構成のOP-AMPに1次のLPFを担わせて,緩やかなフィルタリングを行うというコンセプトで作ったものですから,安易に変えられません。

 そうなるともう1つの手です。デジタルフィルタとして,非同期型のサンプルレートコンバータを使うのです。

 SRCというのは,極論するとDACで一度アナログにした音をADCで再度デジタルにする処理のようなものです。サンプリングレートを極限まで上げ,量子化ビット数を極限まで上げると,アナログになります。

 サンプリングレートを上げることも,量子化ビット数を上げることも,結局フィルタを通すことですので,SRCも結局はデジタルフィルタです。

 ただ,同期型ではなく非同期型というのは,入力側と出力側のサンプリングレートの比率によって波形や特性が変わってしまうことを覚悟しないといけないので,単純なデジタルフィルタの方がこういうケースでは望ましいと思います。

 非同期SRCを使うとは言え,出力のサンプリング周波数が192kHz止まりじゃ意味がありません。PCM1704が動作する768kHzまで上げられないとダメなのですが,そういうSRCってほとんど見当たりません。

 唯一見つけたのがAKMのAK4137です。ハイエンド向けのSRCということで性能も良いのですが,音質については今ひとつという評判です。

 このSRCを使った基板モジュールも中国製の物を見つけました。時間はかかるでしょうが届き次第,どんなものか確認してみたいと思います。

 同時に発注したCS8416と組み合わせ,192Hzの24bitでPCM1704をならしてみたら,どんな音になるのでしょうか。ワクワクします。

IPoEへの切り替えとIPv4とのお別れ

 光回線が開通して数日経過しましたが,これまでのPPPoEからIPoEへの移行申し込みが出来るようになったようなので,早速お願いしてみました。

 必要なのはCAF番号なるものなのだそうですが,これがいつ手に入るのか私にはわかりません。プロバイダの登録情報を見ても,ここは私自身が記入する蘭になっており,プロバイダが埋めてくれるものではないようです。

 NTTからの開通通知が郵送される(らしい)のを待つかと思っていましたが,もしやと工事完了の控えを見ると,小さくCAFに続いて10桁の番号があるではありませんか。

 きっとこれだろうと,この数字を使って申請を行ったのが木曜日の22時頃です。

 すると翌朝には,HGWのPPPランプが消えて,見事にIPoE接続に切り替わっておりました。ログを見ると早朝4時頃に切り替わったようです。

 いよいよこれで光ファイバへの移行完了だと喜んで速度を測ってみましたが,あまり変化がなくがっかり。ひょとしてIPoEで繋がっていないのかもしれないと確認サイトで調べてみますが,やはりIPoEで繋がっています。

 以前から比較的速度が出ていた午前中で,下り300Mbps程度です。もっと速くなることを期待したんですけどねえ。

 上りも同じくらいの速度が出ています。ただ,これは昨日もこのくらいの速度が出ており,IPoEだから改善されたものとは言えません。

 速度が低下し始める昼過ぎならどうだろうと思って調べてみますが,速いときでも160Mbps,遅いときは30Mbps程度まで低下します。昨日に比べて最大値は上がっていると思いますが,平均した速度はそんなに変わっていない印象です。

 うーん,こんなもんなんかなあ。

 ベストエフォートですし,100Mbpsを越えたら実用上困ることはありません。それに相手側の速度にもよるので,そんなに高速になることを期待していたわけではないのですが,昨日からの差が小さくて,ちょっと拍子抜けという感じです。

 ちょっと後悔しているのは,サーバーの公開に影響が出てしまったからです。

 事前にわかっていたことなので文句はないのですが,うちはWEBサーバを自宅に立てていて,これでblogをつけて公開しています。セキュリティの心配は死ぬほどあるのですが,blogごときにお金をかけてレンタルサーバーを使うのもバカらしいということで,自宅で用意をするようになって随分経ちます。

 QNAPが用意してくれるDDNSを使っているのでドメインも無料,証明書も無料で使わせてもらっているのでお金がかかっていないのはうれしいのですが,その代わり何か起これば自分で解決しなければなりません。

 光回線に移行したとはいえ,PPPoEならこれまでのADSLと同じようなものですから,ルータを差し替えるだけで完全移行が出来ました。しかしIPoEの場合はそうはいきません。

 IPv6しか通らなくなってしまったことが原因で,うちのサーバーにアクセス出来なくなるのです。

 あれこれ対策を考えたのですがもう面倒なので,サーバーにIPv6のアドレスを割り振り,ルーターにはこのアドレスを通過させるような設定を行い,繋がるようにしました。DDNSにはIPv6のアドレスを登録しておきます。

 これでとりあえず外から繋がるようになりました。しかし,当然のことですがIPv4の人達からは繋がらなくいるはずです。

 確かめたいのですが,あいにくIPv4しか使えないクライアントが手元にありません。よく考えてみると,IPv4しか使えないものって,もうそんなに残ってないんですよね。スマートフォンにしても,最近のWindowsやMacOSも,もうIPv6は当たり前なのです。

 自分自身が特に不便を感じないので,このままいこうと思います。IPv4の慣れ親しんできた私としては急にやってきたIPv4とのお別れにさみしさを感じますが,せっかく光回線にしたんですから,いい機会だったかもしれません。

 

ユーティリティ

2026年04月

- - - 1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 - -

検索

エントリー検索フォーム
キーワード

ユーザー

新着画像

過去ログ

Feed