[英]C++ Rest SDK Casablanca Sigtrap
我正在使用C ++ Rest SDK(“ Casablanca”)從Websocket服務器接收提要。 當前,我使用websocket_callback_client類與同時運行的三個不同服務器具有三個不同的連接。
該程序運行了一段不確定的時間,然后突然收到SIGTRAP, Trace/ Breakpoint trap
。 這是GDB
的輸出:
#0 0x00007ffff5abec37 in __GI_raise (sig=5) at ../nptl/sysdeps/unix/sysv/linux/raise.c:56
#1 0x000000000047bb8e in pplx::details::_ExceptionHolder::~_ExceptionHolder() ()
#2 0x000000000044be29 in std::_Sp_counted_base<(__gnu_cxx::_Lock_policy)2>::_M_release() ()
#3 0x000000000047fa39 in pplx::details::_Task_impl<unsigned char>::~_Task_impl() ()
#4 0x000000000044be29 in std::_Sp_counted_base<(__gnu_cxx::_Lock_policy)2>::_M_release() ()
#5 0x00007ffff6feb09f in std::__shared_count<(__gnu_cxx::_Lock_policy)2>::~__shared_count (this=0x7fffc8021420, __in_chrg=<optimized out>) at /usr/include/c++/4.8/bits/shared_ptr_base.h:546
#6 0x00007ffff6fffa38 in std::__shared_ptr<pplx::details::_Task_impl<unsigned char>, (__gnu_cxx::_Lock_policy)2>::~__shared_ptr (this=0x7fffc8021418, __in_chrg=<optimized out>) at /usr/include/c++/4.8/bits/shared_ptr_base.h:781
#7 0x00007ffff6fffa52 in std::shared_ptr<pplx::details::_Task_impl<unsigned char> >::~shared_ptr (this=0x7fffc8021418, __in_chrg=<optimized out>) at /usr/include/c++/4.8/bits/shared_ptr.h:93
#8 0x00007ffff710f766 in pplx::details::_PPLTaskHandle<unsigned char, pplx::task<unsigned char>::_InitialTaskHandle<void, void web::websockets::client::details::wspp_callback_client::shutdown_wspp_impl<websocketpp::config::asio_tls_client>(std::weak_ptr<void> const&, bool)::{lambda()#1}, pplx::details::_TypeSelectorNoAsync>, pplx::details::_TaskProcHandle>::~_PPLTaskHandle() (this=0x7fffc8021410, __in_chrg=<optimized out>)
at /home/cpprestsdk/Release/include/pplx/pplxtasks.h:1631
#9 0x00007ffff716e6f2 in pplx::task<unsigned char>::_InitialTaskHandle<void, void web::websockets::client::details::wspp_callback_client::shutdown_wspp_impl<websocketpp::config::asio_tls_client>(std::weak_ptr<void> const&, bool)::{lambda()#1}, pplx::details::_TypeSelectorNoAsync>::~_InitialTaskHandle() (this=0x7fffc8021410, __in_chrg=<optimized out>) at /home/cpprestsdk/Release/include/pplx/pplxtasks.h:3710
#10 0x00007ffff716e722 in pplx::task<unsigned char>::_InitialTaskHandle<void, void web::websockets::client::details::wspp_callback_client::shutdown_wspp_impl<websocketpp::config::asio_tls_client>(std::weak_ptr<void> const&, bool)::{lambda()#1}, pplx::details::_TypeSelectorNoAsync>::~_InitialTaskHandle() (this=0x7fffc8021410, __in_chrg=<optimized out>) at /home/cpprestsdk/Release/include/pplx/pplxtasks.h:3710
#11 0x00007ffff71f9cdd in boost::_bi::list1<boost::_bi::value<void*> >::operator()<void (*)(void*), boost::_bi::list0> (this=0x7fffdc7d7d28, f=@0x7fffdc7d7d20: 0x479180 <pplx::details::_TaskProcHandle::_RunChoreBridge(void*)>, a=...)
at /usr/local/include/boost/bind/bind.hpp:259
#12 0x00007ffff71f9c8f in boost::_bi::bind_t<void, void (*)(void*), boost::_bi::list1<boost::_bi::value<void*> > >::operator() (this=0x7fffdc7d7d20) at /usr/local/include/boost/bind/bind.hpp:1222
#13 0x00007ffff71f9c54 in boost::asio::asio_handler_invoke<boost::_bi::bind_t<void, void (*)(void*), boost::_bi::list1<boost::_bi::value<void*> > > > (function=...) at /usr/local/include/boost/asio/handler_invoke_hook.hpp:69
#14 0x00007ffff71f9bea in boost_asio_handler_invoke_helpers::invoke<boost::_bi::bind_t<void, void (*)(void*), boost::_bi::list1<boost::_bi::value<void*> > >, boost::_bi::bind_t<void, void (*)(void*), boost::_bi::list1<boost::_bi::value<void*> > > > (function=..., context=...) at /usr/local/include/boost/asio/detail/handler_invoke_helpers.hpp:37
#15 0x00007ffff71f9b2e in boost::asio::detail::completion_handler<boost::_bi::bind_t<void, void (*)(void*), boost::_bi::list1<boost::_bi::value<void*> > > >::do_complete (owner=0x7488d0, base=0x7fffc801ecd0)
at /usr/local/include/boost/asio/detail/completion_handler.hpp:68
#16 0x00000000004c34c1 in boost::asio::detail::task_io_service::run(boost::system::error_code&) ()
#17 0x00007ffff709fb27 in boost::asio::io_service::run (this=0x7ffff759ab78 <crossplat::threadpool::shared_instance()::s_shared+24>) at /usr/local/include/boost/asio/impl/io_service.ipp:59
#18 0x00007ffff7185a81 in crossplat::threadpool::thread_start (arg=0x7ffff759ab60 <crossplat::threadpool::shared_instance()::s_shared>) at /home/cpprestsdk/Release/include/pplx/threadpool.h:133
#19 0x00007ffff566e184 in start_thread (arg=0x7fffdc7d8700) at pthread_create.c:312
#20 0x00007ffff5b8237d in clone () at ../sysdeps/unix/sysv/linux/x86_64/clone.S:111
在第18行,給出了/pplx/threadpool.h:133的信息。 這是圍繞這些行的源代碼:
123 static void* thread_start(void *arg)
124 {
125 #if (defined(ANDROID) || defined(__ANDROID__))
126 // Calling get_jvm_env() here forces the thread to be attached.
127 get_jvm_env();
128 pthread_cleanup_push(detach_from_java, nullptr);
129 #endif
130 threadpool* _this = reinterpret_cast<threadpool*>(arg);
131 try
132 {
133 _this->m_service.run();
134 }
135 catch (const _cancel_thread&)
136 {
137 // thread was cancelled
138 }
139 catch (...)
140 {
141 // Something bad happened
142 #if (defined(ANDROID) || defined(__ANDROID__))
143 // Reach into the depths of the 'droid!
144 // NOTE: Uses internals of the bionic library
145 // Written against android ndk r9d, 7/26/2014
146 __pthread_cleanup_pop(&__cleanup, true);
147 throw;
148 #endif
149 }
150 #if (defined(ANDROID) || defined(__ANDROID__))
151 pthread_cleanup_pop(true);
152 #endif
153 return arg;
154 }
為了澄清m_service
, m_service
是boost::asio::io_service
。 在我看來,#133行引發異常,在#139行被捕獲,然后重新拋出。 在這一點上,我必須親自了解它,因為如果我不這樣做,並且pplx
被一個未捕獲的異常破壞,它將引發SIGTRAP
。
這就是我的研究成果。 問題是我不知道這是哪里發生的。 我已經用try {} catch(...){}
包圍了通過websocket_callback_client
發送或接收數據的每個位置,並且這種情況仍在發生。
也許以前使用過該庫的人可以幫助我。
以我的經驗,這是由於一個單獨的問題導致的。
當websocket_callback_client的關閉處理程序被調用時,大多數人會嘗試刪除websocket_callback_client。 這在內部調用close函數。
發生這種情況時,websocket_callback_client將等待關閉完成。 如果另一個線程意識到連接已死,並嘗試清理,則您將從2個不同位置刪除同一對象,這將導致嚴重問題。
如何重新連接到不響應close()的服務器,對 cpprestsdk調用close時發生的情況進行了相當全面的回顧。
希望這可以幫助 :)
編輯:事實證明(我在鏈接的問題中給出的響應具有此內容),如果您嘗試從關閉處理程序中關閉或刪除websocket_callback_client,它將自己調用關閉處理程序,這將鎖定線程。
我發現最適合我的解決方案是在關閉處理程序中設置一個標志,並在主線程或至少一個備用線程中處理清除。
再來看看這個。 我找到了解決方法,並將其發布在cpprestsdk github( https://github.com/Microsoft/cpprestsdk/issues/427 )上。
該SDK在處理異常方面做得很差,並且在這個問題中,我已經表明他們需要改進此文檔並提供一個干凈的公共接口來執行此操作(您將看到解決方案中有代碼味) 。
一個需要做的就是重新拋出用戶異常。
這是在進行http_client
請求調用的上下文中,但應適用於pplx的任何用法。
client->request(request).then([=] (web::http::http_response response) mutable {
// Your code here
}).then([=] (pplx::task<void> previous_task) mutable {
if (previous_task._GetImpl()->_HasUserException()) {
auto holder = previous_task._GetImpl()->_GetExceptionHolder(); // Probably should put in try
try {
// Need to make sure you try/catch here, as _RethrowUserException can throw
holder->_RethrowUserException();
} catch (std::exception& e) {
// Do what you need to do here
}
}
});
捕獲該“未觀察到的異常”的處理在第二個then()
。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.