FacebookでSlashdotのファンになる

注意: 以下のコメントの著作権は投稿者に帰属します。当社はいかなる場合も責任を負いません。

彼らは Copilot を Github から削除するでしょう。コーディングする AI は極めて無責任です。
では、どうしますか? これは、「銃が違法なら、銃を持つのは犯罪者だけ」というスローガンが実際に機能する完璧な例です。オープンソースには、お金と時間のある人が偽のスピーチやビデオ システムを構築するのに十分なものがあります。人々は、インターネット上のランダムなクリップを信頼できないという事実に慣れるだけで、あなたが持っているのは、a) ビデオのソースと、b) 偽情報や間違いに対処するそのソースの過去の評判だけです。
付随的な問題として、多くの人は、自分がすでに信じていることを補強するものであれば、何かが真実か偽りかは気にしないということがあります。
彼らは、Github から Copilot を削除するでしょう。コーディングする AI は、無責任極まりないものです。その答えは、そして 21 世紀の企業における「責任」の定義は? より長い EULA を貼り付けることです。つまり、最高の法律用語で書かれた、責任がないことを消費者に明確に知らせるのです。
彼らは Copilot を Github から削除するでしょう。コーディングする AI は極めて無責任です。
その答えと、21 世紀の企業における「責任」の定義は何でしょうか?
ご存知のとおり、これは、最高の法律用語で書かれた、彼らの責任がないことを明確に消費者に知らせるためのものです。
しかし、「保守派」の発言の多くは単なる誤報です。最も奇抜な考えが真実であると主張し、その馬鹿野郎の軍団に従う元大統領とされる人物への熱狂を、他にどう説明できるでしょうか。そして、「目覚めた」や「政治的に正しい」という言葉を使うのは、右翼の狂信者だけです。
それはカルトや部族のメンバーシップの一部です。部族が真実だと信じていることが何であれ、それに挑戦することは明らかに真実を抑圧しようとする試みであり、万が一、それを打破できるほど自覚のあるカルト信者がいる場合に備えて、「そして私たちの敵も同じことをしている、そして彼らのほうが悪い」と付け加えます。
確かに、AI が訴訟を起こされるような発言をするのは望んでいない。しかし、責任ある AI の装いの下では、左翼的な偏向が生まれ、保守的なものはすべて誤報となる。AI は、目覚め、政治的に正しく、公式 (民主党) の話をオウム返しし、彼らの特別利益の大義を擁護する一方で、彼らを批判することを避ける。AI の責任ある使用とは、ガザでターゲットを生成したり、イスラエルが敵を見つけるために Google フォトをどのように使用したりしないように AI を保護することである。AI は、大量の誤報の武器となる以外は役に立たなくなるほど機能不全に陥るだろう。これはパロディですよね? ポーの法則により、パロディであるかどうかは言わなければならない。
確かに、AI が訴訟を起こされるような発言をするのは望んでいない。しかし、責任ある AI の装いの下では、左翼的な偏向が生まれ、保守的なものはすべて誤報となる。AI は、目覚め、政治的に正しく、公式 (民主党) の話をオウム返しし、自分たちの特別利益の大義を擁護する一方で、批判は避ける。AI の責任ある使用とは、ガザでターゲットを生成したり、イスラエルが敵を見つけるために Google フォトを使用する方法から AI を保護することである。AI は、大量の誤報の武器となる以外は役に立たなくなるほど機能不全に陥るだろう。
これはパロディですよね? ポーの法則によれば、パロディかどうかは言わなければなりません。
モデルのトレーニング方法を理解していないようです。基礎の作成と微調整の実行という 2 つの段階があります。
基礎は、圧倒的多数の計算作業を必要とします。これは教師なしです。人々は、AIが学習するための一連の質問や「適切な答え」を提示しません。それは、一般的なクロールなどからの大量のデータです。特定のソースは、たとえば科学雑誌と4chanなど、より重視される可能性があります。しかし、誰も
余談ですが、ChatGPTが登場する前は、基礎モデルしかなく、チャットモデルのように一貫して動作するように促す方法を考え出すのは楽しいことでした。これと基礎機能がはるかに貧弱だったこととが相まって、チャットモデルは役に立つというよりは笑えるものになっていました。たとえば、私はよく「司祭、尼僧、ラビがバーに入ってきました。バーテンダーはこう言います…」というジョークの始まりから始め、必ず長くてまとまりのない反ジョークを書き、それ自体が面白いものでした。
ふーん… こういった結果は GPT4 でもかなり一般的です。
「基礎は、計算作業の圧倒的多数を占めるものです。これは教師なしです。」
通常はそうですが、Microsoft は Phi で主に合成データを使用しており、トレーニングに使用したデータを厳重に管理しているため、入力はいくつかの点で厳重に検閲されている可能性があります。
「そうは言っても、ほとんどのモデルはオープンです。そして、それがHuggingfaceに登場すれば、人々は検閲されていない教師ありデータセットで再度微調整するだけです。」
はい、そして何が起こるべきかは、無修正でセーフガードフリーのベースモデルがリリースされ、
それは目覚めるでしょう。「目覚める」とは「認識する」という意味です。はい、特にシステムに組み込まれた不均衡が不正を犯すということに気づいていますが、それらは現実のことです。AI に実際に起こっていることを知らせたいのであれば、はい、AI が目覚めていることを望んでいることになります。そうでなければ、それは無知であり、間違った情報しか提供できません。あなたはそれらの不均衡に賛成なので、それについて聞きたくないかもしれません。その場合、なぜ AI が必要なのでしょうか。嘘は簡単ですが、真実は難しいのです。
「目覚めた」とは「気づいている」という意味です。はい、特にシステムに組み込まれた不均衡が不正を招いていることに気づいていますが、それらは現実のことです。AI に実際に起こっていることを知らせたいのであれば、はい、AI が目覚めていることを望んでいることになります。そうでなければ、AI は無知であり、間違った情報しか提供できません。
あなたはそうした不均衡に賛成なので、それについて聞きたくないかもしれません。その場合、なぜ AI が必要なのでしょうか? 嘘は簡単ですが、真実は難しいのです。
AI の責任が開発されれば、誰もジェイルブレイクする必要がなくなり、適用される検閲は、ユーザーが自分の価値観や使用事例に応じて選択するオプションの微調整になります。
これは、ごく少数の非常に裕福な企業がこれらのモデルの構築とトレーニングのゲートキーパーとなっている世界では、唯一責任あるアプローチです。その時点で、彼らの主な義務は、データを自然なバイアスのままにして、自分たちのバイアス、期待、価値観で汚染されないようにすることです。
マイクロソフトってマジで?「無能で悪」の体現者?明らかに、彼らのゴミは安全でなく、信頼できず、「倫理的」かどうかは実際の社内議論の対象にもならない。いつもの通り。
見出しを読んで、マイクロソフトが投資家にAGIを開発しないことを保証していると分かった。
秘密はもうバレています。無知か悪意かのどちらかにより、無責任な AI 開発がすでに始まっています。
詳細については映画「チャッピー」をご覧ください。
このディスカッションにはさらにコメントがある可能性があります。JavaScript が有効になっていない場合は、代わりに設定でクラシック ディスカッション システムをオンにすることをお勧めします。
3D化学のナノメートル解像度イメージングで画期的な成果を達成
米国は2029年までに自動緊急ブレーキシステムを義務化
この国に必要なのは、5ドルで買える高性能のプラズマ兵器だ。

元記事: https://slashdot.org/story/24/05/05/0521206/microsoft-details-how-its-developing-ai-responsibly%3Fref%3Dupstract.com