std::vector vs. std::list bei mehreren Threads + Locking
-
314159265358979 schrieb:
Und hier meine Read-Funktion.
Was ist denn client.begin, client.end, client.mid und client.mid2? Sind das Teile der Nachricht? Was machen die im Client? Und sehe ich richtig, dass Nachrichten länger als 512 Zeichen ignoriert werden?
-
ipsec schrieb:
Was ist denn client.begin, client.end, client.mid und client.mid2? Sind das Teile der Nachricht?
Die benutze ich, um zu speichern, wo ich gerade im Buffer bin.
ipsec schrieb:
Und sehe ich richtig, dass Nachrichten länger als 512 Zeichen ignoriert werden?
Jop. Die maximale Länge ist laut Protokoll 512.
Hier nochmal die client-struct, damits vielleicht verständicher wird.
struct client : boost::noncopyable { client_socket socket; int bufsize; std::unique_ptr<char[]> buffer; char* begin; char* mid; char* mid2; char* end; client(client_socket&& socket) : socket(std::move(socket)) , bufsize(4096) , buffer(new char[bufsize]) , begin(&buffer[0]) , mid(begin) , mid2(begin) , end(begin) {} client(client&& client) : socket(std::move(client.socket)) , bufsize(client.bufsize) , buffer(std::move(client.buffer)) , begin(&buffer[0]) , mid(begin) , mid2(begin) , end(begin) { client.buffer = 0; } client& operator = (client&& other) { socket = std::move(other.socket); bufsize = other.bufsize; buffer = std::move(other.buffer); begin = other.begin; mid = other.mid; mid2 = other.mid2; end = other.end; other.begin = 0; other.mid = 0; other.mid2 = 0; other.end = 0; return *this; } };
Edit: Da fällt mir doch glatt auf, dass ich mir den begin und end Zeiger schenken könnte. Wie gut, dass ich diesen Thread eröffnet habe.
-
Die benutze ich, um zu speichern, wo ich gerade im Buffer bin.
Klingt gruselig, wieso keinen std::vector<> anstatt alles selbst zu machen?
-
Ethon schrieb:
Die benutze ich, um zu speichern, wo ich gerade im Buffer bin.
Klingt gruselig, wieso keinen std::vector<> anstatt alles selbst zu machen?
Das Teil ist ein Ringbuffer. Das heißt, ich lese dort weiter, wo ich als letztes reingeschrieben habe. Dadurch vermeide ich Kopien. Irgendwann ist der Buffer aber dennoch voll, das ist das memmove am Ende. Dann gehts wieder von vorne los.
-
314159265358979 schrieb:
Ethon schrieb:
Die benutze ich, um zu speichern, wo ich gerade im Buffer bin.
Klingt gruselig, wieso keinen std::vector<> anstatt alles selbst zu machen?
Das Teil ist ein Ringbuffer. Das heißt, ich lese dort weiter, wo ich als letztes reingeschrieben habe. Dadurch vermeide ich Kopien. Irgendwann ist der Buffer aber dennoch voll, das ist das memmove am Ende. Dann gehts wieder von vorne los.
1. Gibt es da doch was von Ratiophar ... ähh Boost.
2. Was bufferst du da eigentlich? Das Ergebnis von recv ?
-
Ethon schrieb:
1. Gibt es da doch was von Ratiophar ... ähh Boost.
Gut möglich, dazu kenne ich boost zu wenig.
Ethon schrieb:
2. Was bufferst du da eigentlich? Das Ergebnis von recv ?
Genau. Ich lese ja schließlich nicht immer genau bis \r\n. Kann ja auch mal ne halbe Nachricht kommen, dann der Rest und die hälfte der nächsten, usw. Je größer der Buffer, desto weniger muss ich natürlich auch kopieren.
-
Äußerst umständlich. Was hindert dich, einen string als Buffer zu verwenden?
Außerdem ist das Design grauenhaft, da viel zu wenig abstrahiert. Nachrichtenbuffer gehören gar nicht in die Clientklasse, sondern in eine Nachrichtenklasse. Und solche Internas wie die aktuelle Bufferposition, auch noch public, haben im Client überhaupt nichts zu suchen. Und das alles nur, weil du dir bessere Performance erhoffst... Das meinte ich mit Premature Optimization.
-
ipsec schrieb:
Äußerst umständlich. Was hindert dich, einen string als Buffer zu verwenden?
Außerdem ist das Design grauenhaft, da viel zu wenig abstrahiert. Nachrichtenbuffer gehören gar nicht in die Clientklasse, sondern in eine Nachrichtenklasse. Und solche Internas wie die aktuelle Bufferposition, auch noch public, haben im Client überhaupt nichts zu suchen. Und das alles nur, weil du dir bessere Performance erhoffst... Das meinte ich mit Premature Optimization.Nur zu, sag mir wie ichs besser machen könnte. Wäre dir sehr dankbar dafür.
-
Ich würde grundlegend anders herangehen. Z.B. würde ich das ganze Zeug mit unvollständigen Nachrichten, mehreren zusammenhängenden Nachrichten usw. den Netzwerkfunktionen überlassen und nicht im Client handeln, der sowas ja eigentlich gar nicht wissen muss. Zur Not selbst schreiben, aber u.A. für sowas wurden Bibliotheken wie Asio gemacht. Ich hab hier mal einen ersten Entwurf, wie ungefähr man es mit Asio lösen könnte (ungetestet, unvollständig, wie gesagt erster Entwurf).
Die
message
-Klasse stellt dabei eine IRC-Nachricht dar, mit Prefix, Command etc., dieclient_connection
-Klasse ist deine jetzigeclient
-Klasse (ich fand den Namen treffender). Wie man sieht, muss, wer immer sich um die Nachrichten kümmert, sich lediglich beimclient_connection::new_message
-Signal registrieren (was man eventuell noch kapseln könnte) und einmaligclient_connection::start
aufrufen, der Rest geschieht wunderschön automatisch, ohne dass es dieser ständigen Poll-Schleifen braucht. Dann brauchst du auch den Handler-Thread überhaupt nicht mehr, sondern nur noch den Akzeptor-Thread, welchen du aber mit Asio auch noch loswerden könntest. Entsprechend fällt manuelles Locking etc. weg, das regelt alles Asio.
Und falls dir die eine String-Kopie tatsächlich zu performancelastig ist (bei 512 Byte), kannst du
message
auch gerne einen Iterator-Konstruktor spendieren, und mitistream_iterator
arbeiten.struct message { message(const string& line); // parse line ... }; class client_connection { socket& s; asio::streambuf buffer; public: connection(socket& s) : s(s), buffer(512) {} void start() { asio::async_read_until(s, buffer, "\r\n", boost::bind(&connection::handle_line, this, asio::placeholders::error)); } boost::signal<void(const message&)> new_message; private: void handle_line(const boost::system::error_code& e) { if(!e) { std::istream is(&buffer); std::string line; std::getline(is, line); new_message(message(line)); } start(); } }
-
Hm, also ich muss zugeben, du hast mich jetzt schon etwas neugierig gemacht. Leider ist die Doku zu Asio schlecht und bei Highscore werde ich auch kaum schlauer.
-
Ja da muss ich dir leider Recht geben. Sieh dir am besten die Beispiele und Tutorials an, da lernt man m.E. recht viel über die grundlegende Techniken.
-
Was mich noch etwas stutzig macht: Ich kriege in meiner IDE (Eclipse) keine Libraries gelinkt. Das ist die Fehlermeldung:
ld: library not found for -l/opt/local/lib/libboost-thread-mt.a
Ich habe die Datei über die IDE ausgewählt, der Pfad muss also stimmen.
-
314159265358979 schrieb:
Was mich noch etwas stutzig macht: Ich kriege in meiner IDE (Eclipse) keine Libraries gelinkt. Das ist die Fehlermeldung:
ld: library not found for -l/opt/local/lib/libboost-thread-mt.a
Ich habe die Datei über die IDE ausgewählt, der Pfad muss also stimmen.
Lass mal den Pfad und das lib weg. Und setze den Pfad für die Libs in den entsprechenden Optionen.
Also/opt/local/lib/
in den Pfadeinstellungen, undboost-thread-mt
als Lib angeben.
Und benutze boost.asio. Der Einstig ist zugegebenermaßen etwas schwierig, aber aus meiner Sicht lohnt es sich. Außerdem gibt es hier inzwischen einige, welche Fragen dazu beantworten können. Im Zweifelsfall kann man immer Hilfe in den boost.users-Mailinglisten bekommen. Und vor allem die Beispiele helfen auch gut weiter.
-
314159265358979 schrieb:
Mit std::list kann man [im Gegensatz zu std::vector] bei mehreren Threads in manchen Fällen viel Locking vermeiden.
Nicht wirklich. Es gibt spezielle "Concurrent List"-Implementierungen, ja. Aber std::list kann so etwas nicht. Den Zugriff auf eine std::list musst Du genauso "locken" wie alles andere auch.
314159265358979 schrieb:
Hier schiebt also ein Thread hinten Clients in die list, der zweite läuft die Liste durch und bearbeitet Clients. Liege ich mit folgenden Vermutungen richtig?
- Der Zugriff auf den end()-Iterator muss synchronisiert werden, begin() verändert sich nie
- push_back muss ebenfalls synchronisiert werden, da es die Größe (und damit end()) verändert
- Die Iteration und das Einfügen kann ohne weiteres Locking problemlos parallel ablaufenNein!