mirror of
https://github.com/RPCS3/rpcs3.git
synced 2025-02-21 18:39:57 +00:00
Split normal sockets and p2p sockets handling
This commit is contained in:
parent
b8165af054
commit
08c3a38b67
@ -1,5 +1,6 @@
|
|||||||
#include "stdafx.h"
|
#include "stdafx.h"
|
||||||
#include "lv2_socket.h"
|
#include "lv2_socket.h"
|
||||||
|
#include "network_context.h"
|
||||||
|
|
||||||
LOG_CHANNEL(sys_net);
|
LOG_CHANNEL(sys_net);
|
||||||
|
|
||||||
@ -67,6 +68,17 @@ void lv2_socket::poll_queue(std::shared_ptr<ppu_thread> ppu, bs_t<lv2_socket::po
|
|||||||
{
|
{
|
||||||
set_poll_event(event);
|
set_poll_event(event);
|
||||||
queue.emplace_back(std::move(ppu), poll_cb);
|
queue.emplace_back(std::move(ppu), poll_cb);
|
||||||
|
|
||||||
|
// Makes sure network_context thread is awaken
|
||||||
|
if (type == SYS_NET_SOCK_STREAM || type == SYS_NET_SOCK_DGRAM)
|
||||||
|
{
|
||||||
|
auto& nc = g_fxo->get<network_context>();
|
||||||
|
const u32 prev_value = nc.num_polls.fetch_add(1);
|
||||||
|
if (!prev_value)
|
||||||
|
{
|
||||||
|
nc.num_polls.notify_one();
|
||||||
|
}
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
s32 lv2_socket::clear_queue(ppu_thread* ppu)
|
s32 lv2_socket::clear_queue(ppu_thread* ppu)
|
||||||
@ -81,6 +93,14 @@ s32 lv2_socket::clear_queue(ppu_thread* ppu)
|
|||||||
{
|
{
|
||||||
it = queue.erase(it);
|
it = queue.erase(it);
|
||||||
cleared++;
|
cleared++;
|
||||||
|
|
||||||
|
// Makes sure network_context thread can go back to sleep if there is no active polling
|
||||||
|
if (type == SYS_NET_SOCK_STREAM || type == SYS_NET_SOCK_DGRAM)
|
||||||
|
{
|
||||||
|
const u32 prev_value = g_fxo->get<network_context>().num_polls.fetch_sub(1);
|
||||||
|
ensure(prev_value);
|
||||||
|
}
|
||||||
|
|
||||||
continue;
|
continue;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -121,16 +121,14 @@ s32 lv2_socket_p2p::bind(const sys_net_sockaddr& addr)
|
|||||||
|
|
||||||
socket_type real_socket{};
|
socket_type real_socket{};
|
||||||
|
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
||||||
if (!nc.list_p2p_ports.contains(p2p_port))
|
|
||||||
{
|
|
||||||
nc.list_p2p_ports.emplace(std::piecewise_construct, std::forward_as_tuple(p2p_port), std::forward_as_tuple(p2p_port));
|
|
||||||
}
|
|
||||||
|
|
||||||
|
nc.create_p2p_port(p2p_port);
|
||||||
auto& pport = ::at32(nc.list_p2p_ports, p2p_port);
|
auto& pport = ::at32(nc.list_p2p_ports, p2p_port);
|
||||||
real_socket = pport.p2p_socket;
|
real_socket = pport.p2p_socket;
|
||||||
|
|
||||||
{
|
{
|
||||||
std::lock_guard lock(pport.bound_p2p_vports_mutex);
|
std::lock_guard lock(pport.bound_p2p_vports_mutex);
|
||||||
|
|
||||||
@ -332,7 +330,7 @@ void lv2_socket_p2p::close()
|
|||||||
return;
|
return;
|
||||||
}
|
}
|
||||||
|
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard lock(nc.list_p2p_ports_mutex);
|
std::lock_guard lock(nc.list_p2p_ports_mutex);
|
||||||
ensure(nc.list_p2p_ports.contains(port));
|
ensure(nc.list_p2p_ports.contains(port));
|
||||||
|
@ -445,7 +445,7 @@ bool lv2_socket_p2ps::handle_listening(p2ps_encapsulated_tcp* tcp_header, [[mayb
|
|||||||
const u64 key_connected = (reinterpret_cast<struct sockaddr_in*>(op_addr)->sin_addr.s_addr) | (static_cast<u64>(tcp_header->src_port) << 48) | (static_cast<u64>(tcp_header->dst_port) << 32);
|
const u64 key_connected = (reinterpret_cast<struct sockaddr_in*>(op_addr)->sin_addr.s_addr) | (static_cast<u64>(tcp_header->src_port) << 48) | (static_cast<u64>(tcp_header->dst_port) << 32);
|
||||||
|
|
||||||
{
|
{
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
auto& pport = ::at32(nc.list_p2p_ports, port);
|
auto& pport = ::at32(nc.list_p2p_ports, port);
|
||||||
pport.bound_p2p_streams.emplace(key_connected, new_sock_id);
|
pport.bound_p2p_streams.emplace(key_connected, new_sock_id);
|
||||||
}
|
}
|
||||||
@ -593,16 +593,14 @@ s32 lv2_socket_p2ps::bind(const sys_net_sockaddr& addr)
|
|||||||
|
|
||||||
socket_type real_socket{};
|
socket_type real_socket{};
|
||||||
|
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
||||||
if (!nc.list_p2p_ports.contains(p2p_port))
|
|
||||||
{
|
|
||||||
nc.list_p2p_ports.emplace(std::piecewise_construct, std::forward_as_tuple(p2p_port), std::forward_as_tuple(p2p_port));
|
|
||||||
}
|
|
||||||
|
|
||||||
|
nc.create_p2p_port(p2p_port);
|
||||||
auto& pport = ::at32(nc.list_p2p_ports, p2p_port);
|
auto& pport = ::at32(nc.list_p2p_ports, p2p_port);
|
||||||
real_socket = pport.p2p_socket;
|
real_socket = pport.p2p_socket;
|
||||||
|
|
||||||
{
|
{
|
||||||
// Ensures the socket & the bound list are updated at the same time to avoid races
|
// Ensures the socket & the bound list are updated at the same time to avoid races
|
||||||
std::lock_guard vport_lock(pport.bound_p2p_vports_mutex);
|
std::lock_guard vport_lock(pport.bound_p2p_vports_mutex);
|
||||||
@ -683,14 +681,14 @@ std::optional<s32> lv2_socket_p2ps::connect(const sys_net_sockaddr& addr)
|
|||||||
|
|
||||||
socket_type real_socket{};
|
socket_type real_socket{};
|
||||||
|
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
||||||
if (!nc.list_p2p_ports.contains(port))
|
|
||||||
nc.list_p2p_ports.emplace(std::piecewise_construct, std::forward_as_tuple(port), std::forward_as_tuple(port));
|
|
||||||
|
|
||||||
|
nc.create_p2p_port(port);
|
||||||
auto& pport = ::at32(nc.list_p2p_ports, port);
|
auto& pport = ::at32(nc.list_p2p_ports, port);
|
||||||
real_socket = pport.p2p_socket;
|
real_socket = pport.p2p_socket;
|
||||||
|
|
||||||
{
|
{
|
||||||
std::lock_guard lock(pport.bound_p2p_vports_mutex);
|
std::lock_guard lock(pport.bound_p2p_vports_mutex);
|
||||||
if (vport == 0)
|
if (vport == 0)
|
||||||
@ -857,7 +855,7 @@ void lv2_socket_p2ps::close()
|
|||||||
return;
|
return;
|
||||||
}
|
}
|
||||||
|
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard lock(nc.list_p2p_ports_mutex);
|
std::lock_guard lock(nc.list_p2p_ports_mutex);
|
||||||
ensure(nc.list_p2p_ports.contains(port));
|
ensure(nc.list_p2p_ports.contains(port));
|
||||||
|
@ -12,13 +12,13 @@ LOG_CHANNEL(sys_net);
|
|||||||
s32 send_packet_from_p2p_port(const std::vector<u8>& data, const sockaddr_in& addr)
|
s32 send_packet_from_p2p_port(const std::vector<u8>& data, const sockaddr_in& addr)
|
||||||
{
|
{
|
||||||
s32 res{};
|
s32 res{};
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
||||||
if (nc.list_p2p_ports.contains(SCE_NP_PORT))
|
if (nc.list_p2p_ports.contains(SCE_NP_PORT))
|
||||||
{
|
{
|
||||||
auto& def_port = ::at32(nc.list_p2p_ports, SCE_NP_PORT);
|
auto& def_port = ::at32(nc.list_p2p_ports, SCE_NP_PORT);
|
||||||
res = ::sendto(def_port.p2p_socket, reinterpret_cast<const char*>(data.data()), ::size32(data), 0, reinterpret_cast<const sockaddr*>(&addr), sizeof(sockaddr_in));
|
res = ::sendto(def_port.p2p_socket, reinterpret_cast<const char*>(data.data()), ::size32(data), 0, reinterpret_cast<const sockaddr*>(&addr), sizeof(sockaddr_in));
|
||||||
|
|
||||||
if (res == -1)
|
if (res == -1)
|
||||||
sys_net.error("Failed to send signaling packet: %s", get_last_error(false, false));
|
sys_net.error("Failed to send signaling packet: %s", get_last_error(false, false));
|
||||||
@ -35,7 +35,7 @@ s32 send_packet_from_p2p_port(const std::vector<u8>& data, const sockaddr_in& ad
|
|||||||
std::vector<std::vector<u8>> get_rpcn_msgs()
|
std::vector<std::vector<u8>> get_rpcn_msgs()
|
||||||
{
|
{
|
||||||
std::vector<std::vector<u8>> msgs;
|
std::vector<std::vector<u8>> msgs;
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
||||||
if (nc.list_p2p_ports.contains(SCE_NP_PORT))
|
if (nc.list_p2p_ports.contains(SCE_NP_PORT))
|
||||||
@ -59,7 +59,7 @@ std::vector<std::vector<u8>> get_rpcn_msgs()
|
|||||||
std::vector<signaling_message> get_sign_msgs()
|
std::vector<signaling_message> get_sign_msgs()
|
||||||
{
|
{
|
||||||
std::vector<signaling_message> msgs;
|
std::vector<signaling_message> msgs;
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
std::lock_guard list_lock(nc.list_p2p_ports_mutex);
|
||||||
if (nc.list_p2p_ports.contains(SCE_NP_PORT))
|
if (nc.list_p2p_ports.contains(SCE_NP_PORT))
|
||||||
@ -85,15 +85,15 @@ namespace np
|
|||||||
void init_np_handler_dependencies();
|
void init_np_handler_dependencies();
|
||||||
}
|
}
|
||||||
|
|
||||||
network_thread::network_thread()
|
p2p_thread::p2p_thread()
|
||||||
{
|
{
|
||||||
np::init_np_handler_dependencies();
|
np::init_np_handler_dependencies();
|
||||||
}
|
}
|
||||||
|
|
||||||
void network_thread::bind_sce_np_port()
|
void p2p_thread::bind_sce_np_port()
|
||||||
{
|
{
|
||||||
std::lock_guard list_lock(list_p2p_ports_mutex);
|
std::lock_guard list_lock(list_p2p_ports_mutex);
|
||||||
list_p2p_ports.emplace(std::piecewise_construct, std::forward_as_tuple(SCE_NP_PORT), std::forward_as_tuple(SCE_NP_PORT));
|
create_p2p_port(SCE_NP_PORT);
|
||||||
}
|
}
|
||||||
|
|
||||||
void network_thread::operator()()
|
void network_thread::operator()()
|
||||||
@ -109,10 +109,14 @@ void network_thread::operator()()
|
|||||||
std::vector<bool> was_connecting(lv2_socket::id_count);
|
std::vector<bool> was_connecting(lv2_socket::id_count);
|
||||||
#endif
|
#endif
|
||||||
|
|
||||||
std::vector<::pollfd> p2p_fd(lv2_socket::id_count);
|
|
||||||
|
|
||||||
while (thread_ctrl::state() != thread_state::aborting)
|
while (thread_ctrl::state() != thread_state::aborting)
|
||||||
{
|
{
|
||||||
|
if (!num_polls)
|
||||||
|
{
|
||||||
|
thread_ctrl::wait_on(num_polls, 0);
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
|
||||||
ensure(socklist.size() <= lv2_socket::id_count);
|
ensure(socklist.size() <= lv2_socket::id_count);
|
||||||
|
|
||||||
// Wait with 1ms timeout
|
// Wait with 1ms timeout
|
||||||
@ -122,46 +126,6 @@ void network_thread::operator()()
|
|||||||
::poll(fds.data(), socklist.size(), 1);
|
::poll(fds.data(), socklist.size(), 1);
|
||||||
#endif
|
#endif
|
||||||
|
|
||||||
// Check P2P sockets for incoming packets(timeout could probably be set at 0)
|
|
||||||
{
|
|
||||||
std::lock_guard lock(list_p2p_ports_mutex);
|
|
||||||
std::memset(p2p_fd.data(), 0, p2p_fd.size() * sizeof(::pollfd));
|
|
||||||
auto num_p2p_sockets = 0;
|
|
||||||
for (const auto& p2p_port : list_p2p_ports)
|
|
||||||
{
|
|
||||||
p2p_fd[num_p2p_sockets].events = POLLIN;
|
|
||||||
p2p_fd[num_p2p_sockets].revents = 0;
|
|
||||||
p2p_fd[num_p2p_sockets].fd = p2p_port.second.p2p_socket;
|
|
||||||
num_p2p_sockets++;
|
|
||||||
}
|
|
||||||
|
|
||||||
if (num_p2p_sockets)
|
|
||||||
{
|
|
||||||
#ifdef _WIN32
|
|
||||||
const auto ret_p2p = WSAPoll(p2p_fd.data(), num_p2p_sockets, 1);
|
|
||||||
#else
|
|
||||||
const auto ret_p2p = ::poll(p2p_fd.data(), num_p2p_sockets, 1);
|
|
||||||
#endif
|
|
||||||
if (ret_p2p > 0)
|
|
||||||
{
|
|
||||||
auto fd_index = 0;
|
|
||||||
for (auto& p2p_port : list_p2p_ports)
|
|
||||||
{
|
|
||||||
if ((p2p_fd[fd_index].revents & POLLIN) == POLLIN || (p2p_fd[fd_index].revents & POLLRDNORM) == POLLRDNORM)
|
|
||||||
{
|
|
||||||
while (p2p_port.second.recv_data())
|
|
||||||
;
|
|
||||||
}
|
|
||||||
fd_index++;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
else if (ret_p2p < 0)
|
|
||||||
{
|
|
||||||
sys_net.error("[P2P] Error poll on master P2P socket: %d", get_last_error(false));
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
std::lock_guard lock(s_nw_mutex);
|
std::lock_guard lock(s_nw_mutex);
|
||||||
|
|
||||||
for (usz i = 0; i < socklist.size(); i++)
|
for (usz i = 0; i < socklist.size(); i++)
|
||||||
@ -216,3 +180,69 @@ void network_thread::operator()()
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// Must be used under list_p2p_ports_mutex lock!
|
||||||
|
void p2p_thread::create_p2p_port(u16 p2p_port)
|
||||||
|
{
|
||||||
|
if (!list_p2p_ports.contains(p2p_port))
|
||||||
|
{
|
||||||
|
list_p2p_ports.emplace(std::piecewise_construct, std::forward_as_tuple(p2p_port), std::forward_as_tuple(p2p_port));
|
||||||
|
const u32 prev_value = num_p2p_ports.fetch_add(1);
|
||||||
|
if (!prev_value)
|
||||||
|
{
|
||||||
|
num_p2p_ports.notify_one();
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
void p2p_thread::operator()()
|
||||||
|
{
|
||||||
|
std::vector<::pollfd> p2p_fd(lv2_socket::id_count);
|
||||||
|
|
||||||
|
while (thread_ctrl::state() != thread_state::aborting)
|
||||||
|
{
|
||||||
|
if (!num_p2p_ports)
|
||||||
|
{
|
||||||
|
thread_ctrl::wait_on(num_p2p_ports, 0);
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
|
||||||
|
// Check P2P sockets for incoming packets
|
||||||
|
auto num_p2p_sockets = 0;
|
||||||
|
{
|
||||||
|
std::lock_guard lock(list_p2p_ports_mutex);
|
||||||
|
std::memset(p2p_fd.data(), 0, p2p_fd.size() * sizeof(::pollfd));
|
||||||
|
for (const auto& p2p_port : list_p2p_ports)
|
||||||
|
{
|
||||||
|
p2p_fd[num_p2p_sockets].events = POLLIN;
|
||||||
|
p2p_fd[num_p2p_sockets].revents = 0;
|
||||||
|
p2p_fd[num_p2p_sockets].fd = p2p_port.second.p2p_socket;
|
||||||
|
num_p2p_sockets++;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
#ifdef _WIN32
|
||||||
|
const auto ret_p2p = WSAPoll(p2p_fd.data(), num_p2p_sockets, 1);
|
||||||
|
#else
|
||||||
|
const auto ret_p2p = ::poll(p2p_fd.data(), num_p2p_sockets, 1);
|
||||||
|
#endif
|
||||||
|
if (ret_p2p > 0)
|
||||||
|
{
|
||||||
|
std::lock_guard lock(list_p2p_ports_mutex);
|
||||||
|
auto fd_index = 0;
|
||||||
|
for (auto& p2p_port : list_p2p_ports)
|
||||||
|
{
|
||||||
|
if ((p2p_fd[fd_index].revents & POLLIN) == POLLIN || (p2p_fd[fd_index].revents & POLLRDNORM) == POLLRDNORM)
|
||||||
|
{
|
||||||
|
while (p2p_port.second.recv_data())
|
||||||
|
;
|
||||||
|
}
|
||||||
|
fd_index++;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
else if (ret_p2p < 0)
|
||||||
|
{
|
||||||
|
sys_net.error("[P2P] Error poll on master P2P socket: %d", get_last_error(false));
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
@ -11,15 +11,28 @@ struct network_thread
|
|||||||
{
|
{
|
||||||
std::vector<ppu_thread*> s_to_awake;
|
std::vector<ppu_thread*> s_to_awake;
|
||||||
shared_mutex s_nw_mutex;
|
shared_mutex s_nw_mutex;
|
||||||
|
atomic_t<u32> num_polls = 0;
|
||||||
shared_mutex list_p2p_ports_mutex;
|
|
||||||
std::map<u16, nt_p2p_port> list_p2p_ports{};
|
|
||||||
|
|
||||||
static constexpr auto thread_name = "Network Thread";
|
static constexpr auto thread_name = "Network Thread";
|
||||||
|
|
||||||
network_thread();
|
void operator()();
|
||||||
|
};
|
||||||
|
|
||||||
|
struct p2p_thread
|
||||||
|
{
|
||||||
|
shared_mutex list_p2p_ports_mutex;
|
||||||
|
std::map<u16, nt_p2p_port> list_p2p_ports;
|
||||||
|
atomic_t<u32> num_p2p_ports = 0;
|
||||||
|
|
||||||
|
static constexpr auto thread_name = "Network P2P Thread";
|
||||||
|
|
||||||
|
p2p_thread();
|
||||||
|
|
||||||
|
void create_p2p_port(u16 p2p_port);
|
||||||
|
|
||||||
void bind_sce_np_port();
|
void bind_sce_np_port();
|
||||||
void operator()();
|
void operator()();
|
||||||
};
|
};
|
||||||
|
|
||||||
using network_context = named_thread<network_thread>;
|
using network_context = named_thread<network_thread>;
|
||||||
|
using p2p_context = named_thread<p2p_thread>;
|
||||||
|
@ -408,11 +408,11 @@ namespace np
|
|||||||
|
|
||||||
void np_handler::init_np_handler_dependencies()
|
void np_handler::init_np_handler_dependencies()
|
||||||
{
|
{
|
||||||
if (is_psn_active && g_cfg.net.psn_status == np_psn_status::psn_rpcn && g_fxo->is_init<network_context>() && !m_inited_np_handler_dependencies)
|
if (is_psn_active && g_cfg.net.psn_status == np_psn_status::psn_rpcn && g_fxo->is_init<p2p_context>() && !m_inited_np_handler_dependencies)
|
||||||
{
|
{
|
||||||
m_inited_np_handler_dependencies = true;
|
m_inited_np_handler_dependencies = true;
|
||||||
|
|
||||||
auto& nc = g_fxo->get<network_context>();
|
auto& nc = g_fxo->get<p2p_context>();
|
||||||
nc.bind_sce_np_port();
|
nc.bind_sce_np_port();
|
||||||
|
|
||||||
std::lock_guard lock(mutex_rpcn);
|
std::lock_guard lock(mutex_rpcn);
|
||||||
@ -817,6 +817,16 @@ namespace np
|
|||||||
string_to_online_name(rpcn->get_online_name(), online_name);
|
string_to_online_name(rpcn->get_online_name(), online_name);
|
||||||
string_to_avatar_url(rpcn->get_avatar_url(), avatar_url);
|
string_to_avatar_url(rpcn->get_avatar_url(), avatar_url);
|
||||||
public_ip_addr = rpcn->get_addr_sig();
|
public_ip_addr = rpcn->get_addr_sig();
|
||||||
|
|
||||||
|
if (!public_ip_addr)
|
||||||
|
{
|
||||||
|
rsx::overlays::queue_message(rpcn::rpcn_state_to_localized_string_id(rpcn::rpcn_state::failure_other));
|
||||||
|
rpcn_log.error("Failed to get a reply from RPCN signaling!");
|
||||||
|
is_psn_active = false;
|
||||||
|
rpcn->terminate_connection();
|
||||||
|
return;
|
||||||
|
}
|
||||||
|
|
||||||
local_ip_addr = std::bit_cast<u32, be_t<u32>>(rpcn->get_addr_local());
|
local_ip_addr = std::bit_cast<u32, be_t<u32>>(rpcn->get_addr_local());
|
||||||
|
|
||||||
break;
|
break;
|
||||||
|
@ -2594,4 +2594,58 @@ namespace rpcn
|
|||||||
return it == friend_infos.friends.end() ? std::nullopt : std::optional(*it);
|
return it == friend_infos.friends.end() ? std::nullopt : std::optional(*it);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
bool rpcn_client::is_connected() const
|
||||||
|
{
|
||||||
|
return connected;
|
||||||
|
}
|
||||||
|
|
||||||
|
bool rpcn_client::is_authentified() const
|
||||||
|
{
|
||||||
|
return authentified;
|
||||||
|
}
|
||||||
|
rpcn_state rpcn_client::get_rpcn_state() const
|
||||||
|
{
|
||||||
|
return state;
|
||||||
|
}
|
||||||
|
|
||||||
|
const std::string& rpcn_client::get_online_name() const
|
||||||
|
{
|
||||||
|
return online_name;
|
||||||
|
}
|
||||||
|
|
||||||
|
const std::string& rpcn_client::get_avatar_url() const
|
||||||
|
{
|
||||||
|
return avatar_url;
|
||||||
|
}
|
||||||
|
|
||||||
|
u32 rpcn_client::get_addr_sig() const
|
||||||
|
{
|
||||||
|
if (!addr_sig)
|
||||||
|
{
|
||||||
|
addr_sig.wait(0, static_cast<atomic_wait_timeout>(10'000'000'000));
|
||||||
|
}
|
||||||
|
|
||||||
|
return addr_sig.load();
|
||||||
|
}
|
||||||
|
|
||||||
|
u16 rpcn_client::get_port_sig() const
|
||||||
|
{
|
||||||
|
if (!port_sig)
|
||||||
|
{
|
||||||
|
port_sig.wait(0, static_cast<atomic_wait_timeout>(10'000'000'000));
|
||||||
|
}
|
||||||
|
|
||||||
|
return port_sig.load();
|
||||||
|
}
|
||||||
|
|
||||||
|
u32 rpcn_client::get_addr_local() const
|
||||||
|
{
|
||||||
|
return local_addr_sig.load();
|
||||||
|
}
|
||||||
|
|
||||||
|
void rpcn_client::update_local_addr(u32 addr)
|
||||||
|
{
|
||||||
|
local_addr_sig = std::bit_cast<u32, be_t<u32>>(addr);
|
||||||
|
}
|
||||||
|
|
||||||
} // namespace rpcn
|
} // namespace rpcn
|
||||||
|
@ -437,18 +437,9 @@ namespace rpcn
|
|||||||
void remove_message_cb(message_cb_func cb_func, void* cb_param);
|
void remove_message_cb(message_cb_func cb_func, void* cb_param);
|
||||||
void mark_message_used(u64 id);
|
void mark_message_used(u64 id);
|
||||||
|
|
||||||
bool is_connected() const
|
bool is_connected() const;
|
||||||
{
|
bool is_authentified() const;
|
||||||
return connected;
|
rpcn_state get_rpcn_state() const;
|
||||||
}
|
|
||||||
bool is_authentified() const
|
|
||||||
{
|
|
||||||
return authentified;
|
|
||||||
}
|
|
||||||
rpcn_state get_rpcn_state() const
|
|
||||||
{
|
|
||||||
return state;
|
|
||||||
}
|
|
||||||
|
|
||||||
void server_infos_updated();
|
void server_infos_updated();
|
||||||
|
|
||||||
@ -495,44 +486,13 @@ namespace rpcn
|
|||||||
bool tus_delete_multislot_data(u32 req_id, SceNpCommunicationId& communication_id, const SceNpOnlineId& targetNpId, vm::cptr<SceNpTusSlotId> slotIdArray, s32 arrayNum, bool vuser);
|
bool tus_delete_multislot_data(u32 req_id, SceNpCommunicationId& communication_id, const SceNpOnlineId& targetNpId, vm::cptr<SceNpTusSlotId> slotIdArray, s32 arrayNum, bool vuser);
|
||||||
bool send_presence(const SceNpCommunicationId& pr_com_id, const std::string& pr_title, const std::string& pr_status, const std::string& pr_comment, const std::vector<u8>& pr_data);
|
bool send_presence(const SceNpCommunicationId& pr_com_id, const std::string& pr_title, const std::string& pr_status, const std::string& pr_comment, const std::vector<u8>& pr_data);
|
||||||
|
|
||||||
const std::string& get_online_name() const
|
const std::string& get_online_name() const;
|
||||||
{
|
const std::string& get_avatar_url() const;
|
||||||
return online_name;
|
|
||||||
}
|
|
||||||
const std::string& get_avatar_url() const
|
|
||||||
{
|
|
||||||
return avatar_url;
|
|
||||||
}
|
|
||||||
|
|
||||||
u32 get_addr_sig() const
|
u32 get_addr_sig() const;
|
||||||
{
|
u16 get_port_sig() const;
|
||||||
if (!addr_sig)
|
u32 get_addr_local() const;
|
||||||
{
|
void update_local_addr(u32 addr);
|
||||||
addr_sig.wait(0, static_cast<atomic_wait_timeout>(10'000'000'000));
|
|
||||||
}
|
|
||||||
|
|
||||||
return addr_sig.load();
|
|
||||||
}
|
|
||||||
|
|
||||||
u16 get_port_sig() const
|
|
||||||
{
|
|
||||||
if (!port_sig)
|
|
||||||
{
|
|
||||||
port_sig.wait(0, static_cast<atomic_wait_timeout>(10'000'000'000));
|
|
||||||
}
|
|
||||||
|
|
||||||
return port_sig.load();
|
|
||||||
}
|
|
||||||
|
|
||||||
u32 get_addr_local() const
|
|
||||||
{
|
|
||||||
return local_addr_sig.load();
|
|
||||||
}
|
|
||||||
|
|
||||||
void update_local_addr(u32 addr)
|
|
||||||
{
|
|
||||||
local_addr_sig = std::bit_cast<u32, be_t<u32>>(addr);
|
|
||||||
}
|
|
||||||
|
|
||||||
private:
|
private:
|
||||||
bool get_reply(u64 expected_id, std::vector<u8>& data);
|
bool get_reply(u64 expected_id, std::vector<u8>& data);
|
||||||
|
Loading…
x
Reference in New Issue
Block a user