今年も受講生の皆様の頑張りを祈願して京都の錦天満宮に献灯しました。
天満宮は学問の神様。
今年は赤い提灯にしていただきましたが、オフィス業務担当のスタッフから
「なんで、天満宮の中のお稲荷さんの提灯にしたんですかぁ?????」
と……。あまり、よく考えていませんでした。。。(汗(;’∀’))
まぁ、いいんです。。。お稲荷さんにも応援してもらいましょう!
今、AIが、とりわけChat GPTが私の中での興味関心となっていて、今日は
学術論文を書く際の道具としてのAIの有効性と限界について、この半年余り色々試した結果から、ところを一度まとめてみたいと思います、
結論から言うと、ChatGPTを学術的な論文を書く際のツールとして活用することは、
多くのメリットがある一方でいくつかの限界も存在する。。。。という漠然と当たり前と思っていたことが、経験値を上げて明確にわかりました。
まず、質的な点から考えていきたいと思います。
活用できる点は、なんといっても情報の整理と要約です。
ChatGPTは、膨大なデータベースから瞬時に考えられる最適解を構築できるので、
膨大な情報を整理し、要約する能力に圧倒的に優れています。
これは、研究の背景や文献レビューの段階でツールとして非常に役立ちます。
しかしながら膨大なデータベースは、
最新の研究結果や論文には対応していないことが多く、
学術論文は2023年4月までの情報となっていてまだ新しいものの、どうもすべてを網羅しているとは個人的には言えないように思います。
一般的にニュース記事や書籍、ウェブサイト、その他のテキストソースから2021年までの広範なデータセットをおさえているらしいですが、「ウェブサイト」、「その他のテキストソース」というところに
学術的な正確性や基準は求められないように思います、
研究分野にもよりますが、医学や工学、理学などの理系や、文系でも認知科学や神経心理学などは特に研究の最先端を抑えることがカギとなる場合が多く、最先端の研究を追うことは重要です。
また、どういう基準でピックアップしてきているのかが見えないので、なぜかはわかりませんが、上に書いたように
学術的な正確性に欠ける場合も結構あります。
例えば、WHOで明らかに定義、あるいは分類されている用語に対して、
偏った解釈や定義から「答え」を返す場合も見受けられました。
このようにChatGPTが提供する情報や生成する文献リストが、常に学術的な基準や正確性を満たしているとは限らず、
常に情報の出典を確認し、信頼性を自身で評価する必要があります。
それから、活用できる点については
新しい研究アイデアや、研究問題に対する異なる視点、自分の中で気づかなかった視点を提供してくれることが挙げられます。
これは初稿の作成の段階で、研究アイデアの抽出と、それに基づいて構成を考える際に役立ちます。
しかしながら、上記にかいた
最新の研究情報の不足や学術的正確性と信頼性の問題に留意する必要があることに加えて、
特定の専門分野における深い知識や、最先端の研究内容を完全に理解しているわけではないので、
研究内容の正確性や詳細度に限界があります。
次に量的な点について考えてみると、優れているのは何といっても
文章の文法的な誤りを指摘したり、
より自然な表現に改善する提案を行うことが可能である点です。
ただ、また別の記事を書く機会に改めて書きますが、この辺り、どこまでが許容されるのかその分岐点はなかなか難しい問題のように感じます。
言えることは、文章が奇麗になっても、内容が偏っていたり、論点がずれていたり、といったことが割と起こるような印象です。
なんというか、写真の加工アプリで、不自然になるような印象・・・・変なたとえですみません。
それとまだ完全に追いついていないのがデータ分析のサポート力。
実際のデータ分析作業や統計的手法の適用には今のところ対応していないようで、研究データの解釈や分析に直接的な助言を提供することほぼできません。
ChatGPTは、学術的な論文を書く過程で
有用なアシスタントとなり得ますが、
研究者としては
その限界を理解し、批判的な思考を持って活用することが重要です。
情報の正確性や最新性の確認、専門的な知識や分析には、人間の研究者の役割が不可欠です。
© 2024 mooncircle - Theme by Themefyre