TCP サーバーとクライアントが接続されている場合、クライアントがいつ接続されなくなったかを判断したいと思います。クライアントにメッセージを送信しようとするだけでこれを簡単に実行できると思い、send() が -1 を返すと、ソケットを破棄できます。この実装は Windows で動作しますが、Linux で BSD ソケットを使用してこれを実行しようとすると、サーバー側アプリで send() を呼び出すと、クライアントが接続されなくなるとサーバー アプリがクラッシュします。-1 さえ返さない...プログラムを終了するだけです。
なぜこれが起こっているのか説明してください。前もって感謝します!