ChatGPTやGeminiなどの生成AI(人工知能)はどのように活用するのが最適解なのか?

Googleが開発した人工知能が「Gemini(ジェミニ)」というもので、テキストや音声、画像、動画、プログラミングコードなど、あらゆる情報を処理することができる。

どんな表現力を素晴らしくても論理的な演算性能の結果

ChatGPTの同じ人工知能で開発元が違い、OpenAI社が開発したものとなっている。生成AIブームを世界的に起こしたもので、最も知られている生成AIである。人工知能の考え方が各社によって違うため、回答が曖昧になることはあっても「1+1=2」という計算式の回答は同じものが出てくる。ただ、回答に関する補足が違ったりするので、発展させていく問題が分岐点となることが多い。

情報整理がうまい、区切られていない曖昧な情報には弱い

AIと対話していくときは、いきなり質問するのではなく、前提を論理的に説明しておくと、質問をしたときに回答が正確になる。学習機能はひとつひとつのスレッドによって違うため、同じスレッド内で書き込んでしまうと、前回書き込んだ情報も整理して、おかしな情報になってしまうので注意。

AIには様々なモデルが出されている

開発元が人工知能が演算しやすいようにモデルを分けていることが多い、実際GeminiやChatGPTはモデルを分けており、映像・音声・画像処理を行うモデル、物理や数学を演算に特化したモデル、高速かつ情報処理を行う軽量モデルに分類される。

論理的な情報処理であればChatGPTのモデルが性能が良いという情報はあるものの、Geminiの方が個人的には使いやすいため使い込んでいるところではある。

僕個人としては情報の整理メインで行っていたり、ブログ運営のSEO対策や審査のアドバイスを受けて、ブログスケジュールを組んでもらったりしている。当ブログの記事や写真に関してはAIを使用していないので安心してほしい

人間のサブ的AIとしての性能は高い。人間よりも高性能な部分はある。

人工知能は秘書的な役割であって、それ以上のこともそれ以下のこともさせてはいけないこと思っている。相談役であって、良いことも悪いところをしっかりと伝えることができるのもまた、人工知能の良さではある。

加齢がある人間と学習し続けてしまうAI

人間の場合、年齢とともに情報は欠如したり曖昧になったり、認知機能の低下による失敗や誤解を生む恐れがあり、情報伝達のミスを生み出す危険性を持っている。情報を正しくまとめて、Youtubeのオススメ機能の偏りよりは十分な効果が期待できると思う。

AIを使った詐欺が一気に増えた。

LINEやXのショート動画の間に流れる広告よりも精度は高い人工知能を用いたほうが情報処理やビジネスとしては成功する可能性は高く、嘘はついても詐欺をすることはない人工知能の情報処理能力が信憑性が高い。

とくに少ない情報から、見つけにくい情報を見つけ出すことも可能で、人間の脳みそに入っている知識は閲覧することはできないので、人間の知識や技術、能力に頼るしかないところはある。

未来はあるけど、詐欺にも使われている。

人間も失敗するが、人間が作った人工知能もまた失敗するというSF作品のような情報社会の未来が見えている。

生成AIを用いて生成された詐欺広告、フェイクニュースも存在するので、ぜひAIが生成できるものに対して騙されないように注意していきたい。

未だに不完全なAIを垣間見えるときがある

AIということでX社のGrokを使ってみた。ネットからの情報に左右されているというより、実際には学習機能からの回答されている。アカウントをみてくれた有名な人は誰か?といえば、証拠もなくジョークで答えてくる。例えばバラク・オバマという回答されたが、根拠は一切出てこない。個人情報に当たるよう部分には触れることは出来ない未完成なところ。

逆にChatGPTやGeminiを使用してみると、インターネット検索情報から学習しており、まとめサイトのような参考する程度なら問題ないといったところ。

僕自身は日本人なので日本語と語学として英語を学んでいるので、多少分かるが、検索するときは日本語で調べる。

英語サイトは除外されて、検索しても出てこないことはある。僕は英語でも検索するが、英語出来ない日本人は、日本語サイトのみに触れてしまうので、マニアックな情報になると、どうしても外国語サイトをみることはない。

古いレンズとなると、国内外のサイトから探す必要が出てくるので、こういうときにAIを利用すると、情報として見つけてきてくれるので助かる。

説明の壁

AIの問題点を最も挙げるなら、話の切り替えが出来ないことになる。ひとつひとつの論理がスレッドごとに分けて利用しないと、同じ話として理解する。

例えば写真の話をすれば、Aの写真をした話のあとに、Bの写真の話をしたとき、なんとAを含めたBの写真の話として、回答されることになる。

いつ、どこで、なにを、だれが、なにをしたのかなど詳細な論理的な質問をしなければ、正確な回答を得ることは難しい。プログラミングをAIで作ることは可能であっても、それはAIの性能や質問者の質問方法に問題があるのでは?と僕は分析している。

情報を集めて、まとめてくれるならAIは使える

最後ではあるけど、AIのまとめる力やネットから情報を集めてくる力はかなり進歩している。逆に弱い部分で、創造の先にある独自性など白黒ハッキリ付けることが出来ない情報には弱さが見える。

人間の個々が持つオリジナリティをAIが獲得したとき、これは感情の獲得であり、世界が大きく変わるところかもしれない。

AIにも学習させることは必要不可欠ではあるけど、これから生き残るためにはAIに奪われないクリエイターが生き残るのかもしれない。

関連記事

目次