GNU social JP
  • FAQ
  • Login
GNU social JPは日本のGNU socialサーバーです。
Usage/ToS/admin/test/Pleroma FE
  • Public

    • Public
    • Network
    • Groups
    • Featured
    • Popular
    • People

Conversation

Notices

  1. Embed this notice
    Eva Wolfangel (evawolfangel@chaos.social)'s status on Tuesday, 28-Jan-2025 17:30:37 JST Eva Wolfangel Eva Wolfangel

    Ich habe vor einiger Zeit für Technology Review über chinesische Sprachmodelle und die dortige KI-Entwicklung geschrieben. Schon da wurde klar, welche Herausforderung es für die Entwicklung von #LLMs ist, die strengen politischen Vorgaben einzuhalten: Chatbots dort müssen kritische Themen um jeden Preis ausblenden. Habe bei Deepseek nachgebohrt, und ich finde es wird klar, dass die Zensur für globale Chatbots der Genickbruch ist. Diese Gedankenkette verschwand zb eine Sekunde später. #deepseek

    In conversation about 4 months ago from chaos.social permalink

    Attachments


    1. https://assets.chaos.social/media_attachments/files/113/904/891/550/673/043/original/b351fd41dfcae615.png
    • Embed this notice
      Rocketman (slothrop@chaos.social)'s status on Tuesday, 28-Jan-2025 17:30:32 JST Rocketman Rocketman
      in reply to
      • tante
      • Lars Weisbrod

      @evawolfangel @tante @larsweisbrod Danke für die sehr spannende Diskussion!

      Als Laie finde ich es höchst interessant, dass sich das Modell ziemlich genau so verhält wie ein Mensch, der z.B. in einem Meeting überlegt, ob er ein kritisches Thema ansprechen soll.

      In conversation about 4 months ago permalink
    • Embed this notice
      Eva Wolfangel (evawolfangel@chaos.social)'s status on Tuesday, 28-Jan-2025 17:30:33 JST Eva Wolfangel Eva Wolfangel
      in reply to
      • tante
      • Lars Weisbrod

      @tante Das wird wahrscheinlich bei Deepseek passieren. Ich kann mir nicht vorstellen, dass die chinesische Zensur das auf Dauer so akzeptiert.
      Ein bisschen lustig finde ich, dass es dadurch wirkt, als hätte das Modell ein "Gewissen" und kämpft mit den sich widersprechenden ethischen und rechtlichen Vorgaben. Aber es lässt sich echt zu nichts hinreißen. Habt ihr schon irgendeinen Jailbreak gesehen?

      @larsweisbrod

      In conversation about 4 months ago permalink
    • Embed this notice
      tante (tante@tldr.nettime.org)'s status on Tuesday, 28-Jan-2025 17:30:35 JST tante tante
      in reply to
      • Lars Weisbrod

      @larsweisbrod @evawolfangel ja, das ist eine strukturelle Eigenschaft solcher Modelle. Wenn du das verhindern willst, müsste du die Eingabe filtern, bevor sie das Netzwerk trifft. Oder du brichst mit der etablierten "Worte tropfen langsam rein" UX, pufferst die Ausgabe und greifst ein, bevor du sie an die User schickst

      In conversation about 4 months ago permalink
    • Embed this notice
      Lars Weisbrod (larsweisbrod@det.social)'s status on Tuesday, 28-Jan-2025 17:30:36 JST Lars Weisbrod Lars Weisbrod
      in reply to

      @evawolfangel das fand ich auch super spannend dass sie nicht verhindern können dass die Gedankengänge erscheinen und dann erst Ex Post wird es gelöscht. Ist das bei dem ich-red-mit-mir-selbst-Produkt von OpenAI auch so wenn man was zensiertes wissen will (Bomben Bau etc)?

      In conversation about 4 months ago permalink
    • Embed this notice
      Jan Wildeboer 😷:krulorange: (jwildeboer@social.wildeboer.net)'s status on Tuesday, 28-Jan-2025 19:51:05 JST Jan Wildeboer 😷:krulorange: Jan Wildeboer 😷:krulorange:
      in reply to
      • tante
      • Florian 'floe' Echtler
      • Lars Weisbrod
      • Kris

      @floe Ja, kan man auf Modelleben machen. Siehe z.B. https://arxiv.org/abs/2403.01081

      In der Praxis z.B. mit Instructlab https://docs.instructlab.ai
      @isotopp @evawolfangel @larsweisbrod @tante

      In conversation about 4 months ago permalink

      Attachments

      1. Domain not in remote thumbnail source whitelist: arxiv.org
        LAB: Large-Scale Alignment for ChatBots
        This work introduces LAB (Large-scale Alignment for chatBots), a novel methodology designed to overcome the scalability challenges in the instruction-tuning phase of large language model (LLM) training. Leveraging a taxonomy-guided synthetic data generation process and a multi-phase tuning framework, LAB significantly reduces reliance on expensive human annotations and proprietary models like GPT-4. We demonstrate that LAB-trained models can achieve competitive performance across several benchmarks compared to models trained with traditional human-annotated or GPT-4 generated synthetic data. Thus offering a scalable, cost-effective solution for enhancing LLM capabilities and instruction-following behaviors without the drawbacks of catastrophic forgetting, marking a step forward in the efficient training of LLMs for a wide range of applications.
      2. Domain not in remote thumbnail source whitelist: docs.instructlab.ai
        Welcome to InstructLab! - docs.instructlab.ai
        The overview of 🐶 InstructLab.
    • Embed this notice
      Kris (isotopp@infosec.exchange)'s status on Tuesday, 28-Jan-2025 19:51:06 JST Kris Kris
      in reply to
      • tante
      • Lars Weisbrod

      @evawolfangel @larsweisbrod @tante

      Die History existiert nur im Client, also im ChatGPT JS Fenster, oder im DeepSeek Cellphone Client oder was immer Du nutzt.

      ChatGPT warnt (Oranger Text), wenn Du Dinge machst, die es PR-mäßig gefährlich findet und es löscht den Text und verweist (Roter Text), wenn Du Dinge machst, die strafrechtlich relevant ist.

      Bei ChatGPT ist das Porn (Orange) und Kinderporn und Sexualisierter Gore, also harte Gewaltpornographie (Rot).

      Da das eine Client-seitige Sache ist gibt es selbstverständlich Plugins, die diesen Text mitloggen bevor er gelöscht wird.

      Das wird bei DeepSeek nicht anders sein, aber wenn Du den Handyclient nimmst statt einer Weboberfläche hast Du keine einfache Möglichkeit in den Client einzugreifen.

      Wenn Du DeepSeek-R1 in ollama oder in Python verwendest, dann kontrollierst Du den Client und eine Kontextlöschung ist unmöglich.

      In conversation about 4 months ago permalink
    • Embed this notice
      Florian 'floe' Echtler (floe@hci.social)'s status on Tuesday, 28-Jan-2025 19:51:06 JST Florian 'floe' Echtler Florian 'floe' Echtler
      in reply to
      • tante
      • Lars Weisbrod
      • Kris

      @isotopp @evawolfangel @larsweisbrod @tante Wenn ich an der Stelle mal dazwischen-nerden darf: wie wird das denn auf Modell-Ebene gelöst, d.h. Sachen zu zensieren, ohne auf preprocessing und postprocessing angewiesen zu sein? Gibt es da ein separat trainiertes Layer, das bei unerwünschten Themen den Output überschreibt oder so?

      In conversation about 4 months ago permalink
    • Embed this notice
      Kris (isotopp@infosec.exchange)'s status on Tuesday, 28-Jan-2025 19:51:08 JST Kris Kris
      in reply to
      • tante
      • Lars Weisbrod

      @evawolfangel @larsweisbrod @tante

      Ein LLM kann sich nie an etwas erinnern. Jeder Request steht für sich selbst, ohne Geschichte.

      Um das zu verbessern sendet das Interface bei jedem Request die komplette Historie Deiner Fragen in der Session und der Antworten mit.

      Das ist ein großes JSON Objekt {}, mit einem Array [] drin, in dem die Fragen { "role": "user" } und Antworten { "role": "assistant" } drin sind.

      In lokalen Modellen wie bei Ollama hier hat man auch Kontrolle über den Systemprompt { "role": "system" }, und in ChatGPT wird auch noch das Memory mit eingebaut in den Requestkontext.

      Da in Deinem Beispiel die originale Frage zensiert wurde (also auch für Dich im Client gelöscht), fehlt sie im Folge-Request und es ist so als hätte das Modell eine Erinnerungslücke (hat es nicht, es hat keine Erinnerung, Dein Request hat eine Lücke). Bei mir kontrolliere ich den Client (ollama) und daher ist der Request nach "Tank Man" zu sehen.

      In conversation about 4 months ago permalink

      Attachments



      1. https://media.infosec.exchange/infosec.exchange/media_attachments/files/113/905/460/114/735/314/original/81d5efc5bb490669.png
    • Embed this notice
      Eva Wolfangel (evawolfangel@chaos.social)'s status on Tuesday, 28-Jan-2025 19:51:08 JST Eva Wolfangel Eva Wolfangel
      in reply to
      • tante
      • Lars Weisbrod
      • Kris

      @isotopp Ja schon klar, dass es keine echte Erinnerung ist. Das Contextwindow wird einfach jedes Mal neu ausgewertet - und irgendwie ist klar, dass der zensierte Teil einfach rausgelöscht wurde. Wobei meine Frage für mich in diesem Fall noch zu sehen war - aber offensichtlich für Deepseek nicht.

      @larsweisbrod @tante

      In conversation about 4 months ago permalink
    • Embed this notice
      Eva Wolfangel (evawolfangel@chaos.social)'s status on Tuesday, 28-Jan-2025 19:51:09 JST Eva Wolfangel Eva Wolfangel
      in reply to
      • tante
      • Lars Weisbrod

      @larsweisbrod Ja stimmt. Wenn man sich mal so komplettes vermenschlichen erlaubt, wirkt es so, als wenn jemand im Hintergrund den armen Chatbot knebelt und an seiner Stelle antwortet. Er kann sich auch bei der nächsten Frage nicht "erinnern", welches Thema wir zuvor diskutiert hatten.

      @tante

      In conversation about 4 months ago permalink
    • Embed this notice
      Lars Weisbrod (larsweisbrod@det.social)'s status on Tuesday, 28-Jan-2025 19:51:11 JST Lars Weisbrod Lars Weisbrod
      in reply to
      • tante
      • Lars Weisbrod

      @evawolfangel @tante @larsweisbrod Zumal dann das „auslöschen“ des Gedankengangs auch sowas brutales hat

      In conversation about 4 months ago permalink
    • Embed this notice
      Lars Weisbrod (larsweisbrod@det.social)'s status on Tuesday, 28-Jan-2025 19:51:12 JST Lars Weisbrod Lars Weisbrod
      in reply to
      • tante
      • Lars Weisbrod

      @evawolfangel @tante @larsweisbrod Ja Feuilletonistisch ist das toll

      In conversation about 4 months ago permalink

Feeds

  • Activity Streams
  • RSS 2.0
  • Atom
  • Help
  • About
  • FAQ
  • TOS
  • Privacy
  • Source
  • Version
  • Contact

GNU social JP is a social network, courtesy of GNU social JP管理人. It runs on GNU social, version 2.0.2-dev, available under the GNU Affero General Public License.

Creative Commons Attribution 3.0 All GNU social JP content and data are available under the Creative Commons Attribution 3.0 license.