Neu kaufen

oder
Loggen Sie sich ein, um 1-Click® einzuschalten.
oder
Mit kostenloser Probeteilnahme bei Amazon Prime. Melden Sie sich während des Bestellvorgangs an.
Gebraucht kaufen
Gebraucht - Gut Informationen anzeigen
Preis: EUR 36,66

oder
 
   
Jetzt eintauschen
und EUR 10,40 Gutschein erhalten
Eintausch
Alle Angebote
Möchten Sie verkaufen? Hier verkaufen
Den Verlag informieren!
Ich möchte dieses Buch auf dem Kindle lesen.

Sie haben keinen Kindle? Hier kaufen oder eine gratis Kindle Lese-App herunterladen.

Information Theory, Inference and Learning Algorithms [Englisch] [Gebundene Ausgabe]

David J. C. MacKay
4.7 von 5 Sternen  Alle Rezensionen anzeigen (3 Kundenrezensionen)
Preis: EUR 45,95 kostenlose Lieferung. Siehe Details.
  Alle Preisangaben inkl. MwSt.
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
Nur noch 7 auf Lager (mehr ist unterwegs).
Verkauf und Versand durch Amazon. Geschenkverpackung verfügbar.
Lieferung bis Mittwoch, 3. September: Wählen Sie an der Kasse Morning-Express. Siehe Details.
‹  Zurück zur Artikelübersicht

In diesem Buch (Mehr dazu)
Einleitungssatz
In this chapter we discuss how to measure the information content of the outcome of a random experiment. Lesen Sie die erste Seite
Ausgewählte Seiten ansehen
Buchdeckel | Copyright | Inhaltsverzeichnis | Auszug | Stichwortverzeichnis | Rückseite
Hier reinlesen und suchen:

Wortanzeiger (Mehr dazu)
Die 100 am häufigsten verwendeten Wörter in diesem Buch.
algorithm  between  binary  bits  block  capacity  carlo  case  channel  chapter  code  codeword  coding  data  decoding  density  distribution  does  energy  entropy  equal  error  example  exercise  factor  figure  file  find  first  function  gaussian  give  given  independent  inference  information  input  large  length  let  likelihood  linear  log  matrix  maximum  may  mean  memory  message  method  model  monte  must  network  neuron  noise  now  number  optimal  output  parameters  per  points  possible  posterior  prior  probability  problem  random  rate  rule  samples  sampling  second  sequence  set  show  shown  simple  size  small  solution  source  space  state  step  string  symbol  system  three  thus  time  two  typical  use  used  value  variables  vector  weight 
‹  Zurück zur Artikelübersicht