- LLM AIs should not solely drive ordinary meaning inquiries
- AI tools have advantages in user-friendliness and speed
- Risks of relying on AI include potential lack of empiricism
- Two ways to leverage AI advantages: linguists learning from AI and AI learning from corpus linguists
- Corpus linguistics could benefit from chatbot interfaces for user-friendliness
- Challenges in using AI tools for empirical textualism due to lack of transparency and replicability
- Proposed future tool combining corpus linguistics best practices and user-friendly chatbot interface
- Idea of AIs allowing empirical data search in ordinary language usage while preserving transparency and falsifiability
- AI could be trained to apply coding frameworks to corpus search results, enhancing speed and accessibility
- Caution against outsourcing crucial decisions about ordinary meaning to AIs
- Judges need empirical evidence for discerning ordinary meaning, which corpus tools can provide better than LLM AIs
- Hope for leveraging strengths of both tools in a single inquiry for transparent and falsifiable evidence of ordinary meaning
LLM AIは普通の意味の調査を主導すべきではない。AIツールは使いやすさと速度に利点があるが、AIに依存するリスクもある。AIの利点を生かす方法として、言語学者がAIから学ぶことと、AIがコーパス言語学者から学ぶことが挙げられる。コーパス言語学はチャットボットインターフェースから利益を得ることができ、AIツールを用いた実証的なテキスチュアリズムには透明性や再現性の欠如がある。将来的なツールの提案では、コーパス言語学のベストプラクティスとユーザーフレンドリーなチャットボットインターフェースを組み合わせたものが想定されている。裁判官は普通の意味を識別するために必要な経験的証拠を必要とし、この点においてコーパスツールがLLM AIよりも優れていると考えられる。両方のツールの強みを活用し、透明性と検証可能な普通の意味の証拠を生成する単一の調査を行うことを期待している。